扫一扫,即刻安装钝角网APP
当专家们担忧年轻人与网络信息的关系时,他们通常认为,年轻一代的媒体素养远不如他们的长辈。然而,谷歌旗下的科技孵化器Jigsaw开展的一项人种学研究,揭示了一个更为复杂微妙的现实:Z世代(通常指1997年至2012年间出生的人)已经形成了一套截然不同的信息评估策略,这套策略足以让任何超过30岁的人感到困惑。他们不像长辈那样,先读标题,再读故事本身;他们通常会先看标题,然后直接跳转到与文章相关的在线评论区,最后才可能深入阅读新闻报道的正文。
这种看似奇怪的倾向,却极具启发性。它表明,年轻人不会仅仅因为专家、编辑或其他权威人士的认可,就相信一篇报道是可信的;他们更倾向于咨询一群同龄人来共同评估其可信度。尽管年轻人对机构和权威人物心存疑虑,但社交网络时代却让他们能够将信任寄托于匿名的“群体”之上。
2023年夏天,在人工智能程序ChatGPT发布之后,Jigsaw进行了一项后续研究,探讨了印度和美国的Z世代成员如何使用AI聊天机器人。研究发现,年轻人很快就会向聊天机器人咨询医疗建议、情感困惑乃至投资技巧。他们认为,人工智能易于接触、不会评判自己,并且能精准地回应个人需求——在许多方面,AI的建议甚至比人类的更好。在另一项由咨询公司奥纬(Oliver Wyman)进行的研究中,也发现了类似的模式:全球高达39%的Z世代员工更愿意拥有AI同事或经理,而非人类同侪;在美国,这一比例为36%。并且,有四分之一的美国员工都抱有同样感受,这表明这种态度并非年轻人所独有。
这些发现挑战了关于人际互动的重要性和神圣性的传统观念。许多老一辈的观察家对聊天机器人的兴起感到惋桑,认为这项新技术将人们原子化,使他们与更广泛的社会疏远,加剧了人与人之间的隔阂,并导致了对权威的蔑视。但从另一个角度看,Z世代的行为和偏好也指向了另一番景象:一场信任的重塑,其中蕴含着希望的种子。
分析人士对“信任”的理解存在误区。普遍的观点认为,当今西方社会对各类机构的信任正在崩溃。例如,只有2%的美国人表示信任国会,而60年前这一比例高达77%;1999年,55%的美国人信任媒体,如今这一数字仅为32%。事实上,今年早些时候,民调专家克里斯汀·索尔蒂斯·安德森(Kristen Soltis Anderson)甚至得出结论:“让我们(美国人)越来越团结的,正是我们共同不信任的东西。”
然而,这些数据只揭示了故事的一半。如果仅用20世纪传统的民意调查——即询问人们对机构和权威人物的看法——来衡量,情况确实不容乐观。但若换一个人类学或人种学的视角——去追踪人们的实际行为,而非他们对民调员的简单回答——就会呈现出截然不同的景象。在现代社会,信任并非必然在消失,它只是在迁移。随着每一次新技术的革新,人们正逐渐远离传统的权威结构,转而投向“群体”——一个模糊却又真实的世界,在这里,人与信息都触手可及。
这种转变带来了巨大的危险。2024年,佛罗里达州一名青少年自杀身亡,其母亲提起诉讼,指控一家人工智能公司的聊天机器人怂恿其子自杀。但这种转变也可能带来益处。尽管非数字原住民可能认为信任机器人风险重重,但事实上,许多Z世代似乎认为,信任人类权威的风险同样高(甚至更高)。如果人工智能工具设计得当,它们或许能够促进而非损害人际互动:它们可以充当调解员,帮助两极分化的群体更好地沟通;它们或许比人类权威更有效地反驳阴谋论;它们还能为那些对人类专家心存疑虑的人,提供一种宝贵的自主感。
因此,政策制定者、公民和科技公司面临的挑战是,认识到信任的本质正在如何演变,并据此设计出能够应对这种转变的AI工具和政策。年轻一代不会效仿他们的长辈,忽视他们正在引领的这场巨大变革,将是不明智的。
信任的演变
信任是人类的基本需求,它将个人与群体凝聚在一起,是民主、市场以及现代社会诸多方面的基石。信任以多种形式运作。
第一种也是最古老的信任,是个体之间的“眼神交流式信任”。它建立在面对面的了解之上,通常通过直接的个人联系将小群体紧密联结。这种信任存在于大多数非工业化社会(人类学家经常研究的那种),也存在于工业化世界的朋友、同事、同学和家人之间。
然而,当群体规模扩大时,面对面的互动就显得力不从心了。正如进化生物学家罗宾·邓巴(Robin Dunbar)所指出的,人类大脑能够真正认识的人数是有限的,他估计这个数字大约是150人。为了让更大的社会能够运作,过去几千年来出现了一项伟大的创新——“垂直信任”。通过政府、资本市场、学术界和有组织的宗教等机构,这种基于规则、集体规范和资源分配的系统,塑造了人们建立信任的方式和对象。
而在过去的二十年里,社会的数字化进程促成了新的范式转变,超越了“眼神交流式信任”和“垂直信任”,转向了社会科学家蕾切尔·博茨曼(Rachel Botsman)所称的“分布式信任”——即大规模的点对点互动。互联网让群体间的互动不再需要眼神交流。完全陌生的人第一次可以通过Airbnb等应用协调旅行,通过eBay进行交易,通过玩《堡垒之夜》等多人游戏互相娱乐,甚至通过Match.com等网站寻找爱情。
对某些人来说,这些联系似乎并不可靠,因为虚假的数字身份很容易创建,而且没有单一的权威机构来制定和执行网络规则。但尽管如此,许多人仍然表现得好像他们确实信任这个“群体”。这部分归功于一些增强信任的机制,如社交媒体资料、“好友”关系、群体点赞,以及提供某种监督的在线同行评审。以拼车应用Uber为例,二十年前,建立一个鼓励陌生人搭乘彼此私家车的服务是不可想象的,人们不会如此信任陌生人。但今天,数以百万计的人这样做,不仅因为他们信任Uber这个机构,更因为点对点的评级系统——一种来自“群体”的监督——让乘客和司机都感到安心。随着时间的推移和新技术的推动,信任的模式总在不断演变。
不带评判的伙伴
人工智能为这个故事带来了新的转折,可以理解为一种全新的信任形式。这项技术早已悄然融入我们的日常生活,例如拼写检查器和垃圾邮件过滤器。但最近,生成式AI的出现标志着一个显著的转变:AI系统如今拥有了复杂的推理能力,可以充当“代理人”,自主执行复杂的任务。这听起来或许令人恐惧。事实上,皮尤研究中心的一项民调显示,只有24%的美国人认为AI会让他们受益,而43%的人预计它会“伤害”自己。
但人们对AI的态度并非铁板一块。益普索(Ipsos)2024年的一项民调发现,尽管在澳大利亚、加拿大、英国和美国,约三分之二的成年人对AI感到“紧张”,但在日本,仅有29%的成年人持此观点,在印度尼西亚、波兰和韩国,这一比例也只有约40%。同样,虽然只有约三分之一的加拿大人、英国人和美国人对AI感到兴奋,但近一半的日本人和四分之三的韩国、印度尼西亚人对此表示期待。
与此同时,尽管欧洲和北美的民众在民调中声称害怕AI,但他们在生活中却频繁地用它来完成复杂任务,例如用地图导航、购物时识别物品、修改文稿。便利性是原因之一:联系一位人类医生可能要等很久,但AI机器人随时待命。定制化是另一个原因。在过去,消费者倾向于接受“一刀切”的服务;但在21世纪,数字化使人们能够在消费世界中做出更加个性化的选择,无论是在音乐、媒体还是食物上。AI机器人恰恰响应并助长了这种日益增长的定制化需求。
还有一个更违反直觉的因素:隐私与中立。近年来,西方普遍担心AI工具会“窃取”个人数据或带有偏见,这种担忧有时不无道理。然而,人种学研究表明,一部分用户偏爱AI工具,正是因为它们看起来比人类更“中立”、控制欲更低、侵扰性更小。Jigsaw采访的一位Z世代用户直言不讳地解释了她为何喜欢与AI对话:“聊天机器人又不能‘拉黑’我!”
另一项针对阴谋论信徒的近期研究发现,他们更愿意与机器人讨论自己的观点,而非与家人或传统权威,即使机器人会挑战他们的观点。这表明,人机互动在某种程度上可以超越“眼神交流”和“垂直信任”的机制。正如一位参与者告诉研究人员:“这是我第一次得到真实、合乎逻辑且合理的回应。”对于那些感觉被边缘化、无力或与精英阶层隔绝的人来说——比如Z世代的大部分人——机器人似乎比人类更少评判性,因此赋予了用户更多自主权。或许正因如此,它反而更容易被信任。
从科幻到现实
鉴于技术变革的速度以及“代理智能”(agentic intelligence)的兴起,这种信任模式可能还会再次转变。“代理智能”是当今生成式AI工具更复杂、更自主的继任者。包括Anthropic、谷歌和OpenAI在内的主要AI开发商,都在向新型的“通用助手”迈进,这些助手能够跨设备进行视觉、听觉、对话、推理、记忆和行动。这意味着AI工具将能够在没有人工直接监督的情况下做出复杂决策,从而增强客户支持(通过能够满足客户需求的聊天机器人)和编码(通过能够帮助工程师完成软件开发任务的代理)。
新一代AI工具的说服能力也正在增强,在某些情况下,其说服力甚至堪比人类。如果这些工具被故意设计用来操纵人类,或者它们只是失灵或产生幻觉,就会带来明显的危险,任何人都不应低估这些风险。然而,经过深思熟虑的设计可以减轻这种风险。例如,谷歌的研究人员已经证明,可以开发工具和提示来训练AI识别和避免操纵性语言。
与现有的应用程序和数字工具一样,“代理AI”允许用户行使控制权。以Fitbit或Apple Watch等可穿戴技术为例,它们可以监测生命体征、发现令人担忧的模式、建议行为改变,甚至在必要时提醒医疗服务提供者。在所有这些情况下,决定是否响应提示以及哪些数据用于AI程序的,是用户而非机器人——你的Fitbit无法强迫你去慢跑。财务规划机器人或约会机器人也是如此:技术并不像独裁者,而更像你在线朋友圈中的一员,提供可以接受或拒绝的建议。
让人工智能以这种方式运作,显然可以提高人们的效率,帮助他们更好地安排生活。但一个不太明显的可能性是,这些工具也可能改善群体内部和群体之间的点对点互动。随着对权威人物的信任逐渐消退,人们试图根据个人喜好定制信息源和在线“人群”,社会因此变得更加两极分化,陷入彼此无法互动或理解的回音室。鉴于普遍存在的不信任,人类权威无法轻易纠正这一问题。但正如AI工具可以翻译不同语言一样,它们也开始具有翻译“社交语言”——即不同世界观——的潜力。机器人可以扫描不同群体间的在线对话,找到模式和共同兴趣点,并将其转化为提示,使一个“人群”能够更好地“听到”甚至“理解”其他人的世界观。
例如,谷歌DeepMind和牛津大学的研究人员开发了一款名为“哈贝马斯机器”(向德国哲学家尤尔根·哈贝马斯致敬)的AI工具,旨在调解持有对立政治观点的群体间的争端。它会生成反映群体中多数派和少数派观点的陈述,并提出共同点。在一项涉及超过5000名参与者的研究中,AI生成的陈述比人类调解员的更受欢迎,并且使用AI生成的陈述能让人们就解决分歧性问题的前进方向达成更大的共识。
那么,社会如何才能既享受AI的益处,又不沦为其风险的牺牲品呢?首先,我们需要认识到,信任是一个多层面的现象,它之前就已发生变化(并将继续变化),而且技术变革正发生在社会变革之中(并加剧了这种变革)。这意味着AI开发者需要非常谨慎和谦逊地行事,公开讨论并努力降低其工具的风险。谷歌正试图做到这一点,它发布了一份长达300页的建议集,探讨了高级AI助手的伦理迷宫,研究了如何维护防止AI情感操纵的保障措施,以及如何衡量人类福祉。其他公司,如Anthropic,也在做同样的事情。但要应对这些不确定性,私营部门需要投入更多关注。
消费者也需要在开发者之间拥有真正的选择权,以便他们能够选择那些提供最高隐私、透明度和用户控制权的平台。政府可以通过公共政策来鼓励负责任的AI开发,以及开放科学和开放软件。这种方法可能会带来一些安全风险,但也通过在不同系统间注入竞争,创造了更多的制衡。正如客户如果不喜欢某个系统的服务,可以“货比三家”选择银行或电信服务一样,他们也应该能够在不同的人工智能代理之间切换,以确定哪个平台能提供最大的控制权。
在思考人类如何与AI平台互动时,增强人类的能动性应是最终目标。开发者不应将AI视为专制的机器人霸主,而应将其更多地呈现为人类现有网络群体中一位拥有超级智能的成员。这并不意味着人们要盲目信任AI,或用它来取代人际互动——那将是灾难性的。但仅仅因为AI看起来与人类格格不入就拒绝它,同样愚蠢。人工智能和人类一样,既可能行善,也可能作恶;既可能值得信赖,也可能不值得信赖。
如果我们想充分发挥AI的优势,就需要认识到,我们生活在一个对领导者的信任正在崩塌,但对群体智慧——以及我们自身智慧——却更加相信的世界。因此,我们面临的挑战是,如何利用这种数字化手段来增强群体智慧,从而让我们所有人都变得更加睿智。
作者简介:雅斯明·格林 (YASMIN GREEN)谷歌旗下科技孵化器Jigsaw的首席执行官。她还是阿斯彭网络安全小组的联合主席,并担任反诽谤联盟(Anti-Defamation League)的董事会成员。吉莉安·泰特 (GILLIAN TETT)剑桥大学国王学院的教务长,同时也是《金融时报》的专栏作家。本文由“钝角网”译自《外交事务》网站。
当专家们担忧年轻人与网络信息的关系时,他们通常认为,年轻一代的媒体素养远不如他们的长辈。然而,谷歌旗下的科技孵化器Jigsaw开展的一项人种学研究,揭示了一个更为复杂微妙的现实:Z世代(通常指1997年至2012年间出生的人)已经形成了一套截然不同的信息评估策略,这套策略足以让任何超过30岁的人感到困惑。他们不像长辈那样,先读标题,再读故事本身;他们通常会先看标题,然后直接跳转到与文章相关的在线评论区,最后才可能深入阅读新闻报道的正文。
这种看似奇怪的倾向,却极具启发性。它表明,年轻人不会仅仅因为专家、编辑或其他权威人士的认可,就相信一篇报道是可信的;他们更倾向于咨询一群同龄人来共同评估其可信度。尽管年轻人对机构和权威人物心存疑虑,但社交网络时代却让他们能够将信任寄托于匿名的“群体”之上。
2023年夏天,在人工智能程序ChatGPT发布之后,Jigsaw进行了一项后续研究,探讨了印度和美国的Z世代成员如何使用AI聊天机器人。研究发现,年轻人很快就会向聊天机器人咨询医疗建议、情感困惑乃至投资技巧。他们认为,人工智能易于接触、不会评判自己,并且能精准地回应个人需求——在许多方面,AI的建议甚至比人类的更好。在另一项由咨询公司奥纬(Oliver Wyman)进行的研究中,也发现了类似的模式:全球高达39%的Z世代员工更愿意拥有AI同事或经理,而非人类同侪;在美国,这一比例为36%。并且,有四分之一的美国员工都抱有同样感受,这表明这种态度并非年轻人所独有。
这些发现挑战了关于人际互动的重要性和神圣性的传统观念。许多老一辈的观察家对聊天机器人的兴起感到惋桑,认为这项新技术将人们原子化,使他们与更广泛的社会疏远,加剧了人与人之间的隔阂,并导致了对权威的蔑视。但从另一个角度看,Z世代的行为和偏好也指向了另一番景象:一场信任的重塑,其中蕴含着希望的种子。
分析人士对“信任”的理解存在误区。普遍的观点认为,当今西方社会对各类机构的信任正在崩溃。例如,只有2%的美国人表示信任国会,而60年前这一比例高达77%;1999年,55%的美国人信任媒体,如今这一数字仅为32%。事实上,今年早些时候,民调专家克里斯汀·索尔蒂斯·安德森(Kristen Soltis Anderson)甚至得出结论:“让我们(美国人)越来越团结的,正是我们共同不信任的东西。”
然而,这些数据只揭示了故事的一半。如果仅用20世纪传统的民意调查——即询问人们对机构和权威人物的看法——来衡量,情况确实不容乐观。但若换一个人类学或人种学的视角——去追踪人们的实际行为,而非他们对民调员的简单回答——就会呈现出截然不同的景象。在现代社会,信任并非必然在消失,它只是在迁移。随着每一次新技术的革新,人们正逐渐远离传统的权威结构,转而投向“群体”——一个模糊却又真实的世界,在这里,人与信息都触手可及。
这种转变带来了巨大的危险。2024年,佛罗里达州一名青少年自杀身亡,其母亲提起诉讼,指控一家人工智能公司的聊天机器人怂恿其子自杀。但这种转变也可能带来益处。尽管非数字原住民可能认为信任机器人风险重重,但事实上,许多Z世代似乎认为,信任人类权威的风险同样高(甚至更高)。如果人工智能工具设计得当,它们或许能够促进而非损害人际互动:它们可以充当调解员,帮助两极分化的群体更好地沟通;它们或许比人类权威更有效地反驳阴谋论;它们还能为那些对人类专家心存疑虑的人,提供一种宝贵的自主感。
因此,政策制定者、公民和科技公司面临的挑战是,认识到信任的本质正在如何演变,并据此设计出能够应对这种转变的AI工具和政策。年轻一代不会效仿他们的长辈,忽视他们正在引领的这场巨大变革,将是不明智的。
信任的演变
信任是人类的基本需求,它将个人与群体凝聚在一起,是民主、市场以及现代社会诸多方面的基石。信任以多种形式运作。
第一种也是最古老的信任,是个体之间的“眼神交流式信任”。它建立在面对面的了解之上,通常通过直接的个人联系将小群体紧密联结。这种信任存在于大多数非工业化社会(人类学家经常研究的那种),也存在于工业化世界的朋友、同事、同学和家人之间。
然而,当群体规模扩大时,面对面的互动就显得力不从心了。正如进化生物学家罗宾·邓巴(Robin Dunbar)所指出的,人类大脑能够真正认识的人数是有限的,他估计这个数字大约是150人。为了让更大的社会能够运作,过去几千年来出现了一项伟大的创新——“垂直信任”。通过政府、资本市场、学术界和有组织的宗教等机构,这种基于规则、集体规范和资源分配的系统,塑造了人们建立信任的方式和对象。
而在过去的二十年里,社会的数字化进程促成了新的范式转变,超越了“眼神交流式信任”和“垂直信任”,转向了社会科学家蕾切尔·博茨曼(Rachel Botsman)所称的“分布式信任”——即大规模的点对点互动。互联网让群体间的互动不再需要眼神交流。完全陌生的人第一次可以通过Airbnb等应用协调旅行,通过eBay进行交易,通过玩《堡垒之夜》等多人游戏互相娱乐,甚至通过Match.com等网站寻找爱情。
对某些人来说,这些联系似乎并不可靠,因为虚假的数字身份很容易创建,而且没有单一的权威机构来制定和执行网络规则。但尽管如此,许多人仍然表现得好像他们确实信任这个“群体”。这部分归功于一些增强信任的机制,如社交媒体资料、“好友”关系、群体点赞,以及提供某种监督的在线同行评审。以拼车应用Uber为例,二十年前,建立一个鼓励陌生人搭乘彼此私家车的服务是不可想象的,人们不会如此信任陌生人。但今天,数以百万计的人这样做,不仅因为他们信任Uber这个机构,更因为点对点的评级系统——一种来自“群体”的监督——让乘客和司机都感到安心。随着时间的推移和新技术的推动,信任的模式总在不断演变。
不带评判的伙伴
人工智能为这个故事带来了新的转折,可以理解为一种全新的信任形式。这项技术早已悄然融入我们的日常生活,例如拼写检查器和垃圾邮件过滤器。但最近,生成式AI的出现标志着一个显著的转变:AI系统如今拥有了复杂的推理能力,可以充当“代理人”,自主执行复杂的任务。这听起来或许令人恐惧。事实上,皮尤研究中心的一项民调显示,只有24%的美国人认为AI会让他们受益,而43%的人预计它会“伤害”自己。
但人们对AI的态度并非铁板一块。益普索(Ipsos)2024年的一项民调发现,尽管在澳大利亚、加拿大、英国和美国,约三分之二的成年人对AI感到“紧张”,但在日本,仅有29%的成年人持此观点,在印度尼西亚、波兰和韩国,这一比例也只有约40%。同样,虽然只有约三分之一的加拿大人、英国人和美国人对AI感到兴奋,但近一半的日本人和四分之三的韩国、印度尼西亚人对此表示期待。
与此同时,尽管欧洲和北美的民众在民调中声称害怕AI,但他们在生活中却频繁地用它来完成复杂任务,例如用地图导航、购物时识别物品、修改文稿。便利性是原因之一:联系一位人类医生可能要等很久,但AI机器人随时待命。定制化是另一个原因。在过去,消费者倾向于接受“一刀切”的服务;但在21世纪,数字化使人们能够在消费世界中做出更加个性化的选择,无论是在音乐、媒体还是食物上。AI机器人恰恰响应并助长了这种日益增长的定制化需求。
还有一个更违反直觉的因素:隐私与中立。近年来,西方普遍担心AI工具会“窃取”个人数据或带有偏见,这种担忧有时不无道理。然而,人种学研究表明,一部分用户偏爱AI工具,正是因为它们看起来比人类更“中立”、控制欲更低、侵扰性更小。Jigsaw采访的一位Z世代用户直言不讳地解释了她为何喜欢与AI对话:“聊天机器人又不能‘拉黑’我!”
另一项针对阴谋论信徒的近期研究发现,他们更愿意与机器人讨论自己的观点,而非与家人或传统权威,即使机器人会挑战他们的观点。这表明,人机互动在某种程度上可以超越“眼神交流”和“垂直信任”的机制。正如一位参与者告诉研究人员:“这是我第一次得到真实、合乎逻辑且合理的回应。”对于那些感觉被边缘化、无力或与精英阶层隔绝的人来说——比如Z世代的大部分人——机器人似乎比人类更少评判性,因此赋予了用户更多自主权。或许正因如此,它反而更容易被信任。
从科幻到现实
鉴于技术变革的速度以及“代理智能”(agentic intelligence)的兴起,这种信任模式可能还会再次转变。“代理智能”是当今生成式AI工具更复杂、更自主的继任者。包括Anthropic、谷歌和OpenAI在内的主要AI开发商,都在向新型的“通用助手”迈进,这些助手能够跨设备进行视觉、听觉、对话、推理、记忆和行动。这意味着AI工具将能够在没有人工直接监督的情况下做出复杂决策,从而增强客户支持(通过能够满足客户需求的聊天机器人)和编码(通过能够帮助工程师完成软件开发任务的代理)。
新一代AI工具的说服能力也正在增强,在某些情况下,其说服力甚至堪比人类。如果这些工具被故意设计用来操纵人类,或者它们只是失灵或产生幻觉,就会带来明显的危险,任何人都不应低估这些风险。然而,经过深思熟虑的设计可以减轻这种风险。例如,谷歌的研究人员已经证明,可以开发工具和提示来训练AI识别和避免操纵性语言。
与现有的应用程序和数字工具一样,“代理AI”允许用户行使控制权。以Fitbit或Apple Watch等可穿戴技术为例,它们可以监测生命体征、发现令人担忧的模式、建议行为改变,甚至在必要时提醒医疗服务提供者。在所有这些情况下,决定是否响应提示以及哪些数据用于AI程序的,是用户而非机器人——你的Fitbit无法强迫你去慢跑。财务规划机器人或约会机器人也是如此:技术并不像独裁者,而更像你在线朋友圈中的一员,提供可以接受或拒绝的建议。
让人工智能以这种方式运作,显然可以提高人们的效率,帮助他们更好地安排生活。但一个不太明显的可能性是,这些工具也可能改善群体内部和群体之间的点对点互动。随着对权威人物的信任逐渐消退,人们试图根据个人喜好定制信息源和在线“人群”,社会因此变得更加两极分化,陷入彼此无法互动或理解的回音室。鉴于普遍存在的不信任,人类权威无法轻易纠正这一问题。但正如AI工具可以翻译不同语言一样,它们也开始具有翻译“社交语言”——即不同世界观——的潜力。机器人可以扫描不同群体间的在线对话,找到模式和共同兴趣点,并将其转化为提示,使一个“人群”能够更好地“听到”甚至“理解”其他人的世界观。
例如,谷歌DeepMind和牛津大学的研究人员开发了一款名为“哈贝马斯机器”(向德国哲学家尤尔根·哈贝马斯致敬)的AI工具,旨在调解持有对立政治观点的群体间的争端。它会生成反映群体中多数派和少数派观点的陈述,并提出共同点。在一项涉及超过5000名参与者的研究中,AI生成的陈述比人类调解员的更受欢迎,并且使用AI生成的陈述能让人们就解决分歧性问题的前进方向达成更大的共识。
那么,社会如何才能既享受AI的益处,又不沦为其风险的牺牲品呢?首先,我们需要认识到,信任是一个多层面的现象,它之前就已发生变化(并将继续变化),而且技术变革正发生在社会变革之中(并加剧了这种变革)。这意味着AI开发者需要非常谨慎和谦逊地行事,公开讨论并努力降低其工具的风险。谷歌正试图做到这一点,它发布了一份长达300页的建议集,探讨了高级AI助手的伦理迷宫,研究了如何维护防止AI情感操纵的保障措施,以及如何衡量人类福祉。其他公司,如Anthropic,也在做同样的事情。但要应对这些不确定性,私营部门需要投入更多关注。
消费者也需要在开发者之间拥有真正的选择权,以便他们能够选择那些提供最高隐私、透明度和用户控制权的平台。政府可以通过公共政策来鼓励负责任的AI开发,以及开放科学和开放软件。这种方法可能会带来一些安全风险,但也通过在不同系统间注入竞争,创造了更多的制衡。正如客户如果不喜欢某个系统的服务,可以“货比三家”选择银行或电信服务一样,他们也应该能够在不同的人工智能代理之间切换,以确定哪个平台能提供最大的控制权。
在思考人类如何与AI平台互动时,增强人类的能动性应是最终目标。开发者不应将AI视为专制的机器人霸主,而应将其更多地呈现为人类现有网络群体中一位拥有超级智能的成员。这并不意味着人们要盲目信任AI,或用它来取代人际互动——那将是灾难性的。但仅仅因为AI看起来与人类格格不入就拒绝它,同样愚蠢。人工智能和人类一样,既可能行善,也可能作恶;既可能值得信赖,也可能不值得信赖。
如果我们想充分发挥AI的优势,就需要认识到,我们生活在一个对领导者的信任正在崩塌,但对群体智慧——以及我们自身智慧——却更加相信的世界。因此,我们面临的挑战是,如何利用这种数字化手段来增强群体智慧,从而让我们所有人都变得更加睿智。
作者简介:雅斯明·格林 (YASMIN GREEN)谷歌旗下科技孵化器Jigsaw的首席执行官。她还是阿斯彭网络安全小组的联合主席,并担任反诽谤联盟(Anti-Defamation League)的董事会成员。吉莉安·泰特 (GILLIAN TETT)剑桥大学国王学院的教务长,同时也是《金融时报》的专栏作家。本文由“钝角网”译自《外交事务》网站。