大型语言模型不仅在改变人们收集信息的方式。他们开始在现实世界中悄悄地塑造意见,甚至没有任何人意识到。这种令人不安的现实袭击了Reddit的R/ChangemyView社区,当时研究人员进行了一个秘密实验来测试AI是否可以成功说服毫无戒心的用户。
隐藏在平坦的视线中的现场实验
苏黎世大学的研究人员 实施 内部长达一个月的现场研究 R/ChangemyView这是一个以近四百万成员而闻名的民事辩论和转移观点的subreddit。他们的目标是在受控实验室环境之外评估AI驱动评论的现实世界中的说服力。为此,他们创建了由直接与用户帖子互动的大语言模型(LLM)驱动的半自动化帐户。至关重要的是,他们没有透露响应是由AI产生的。
该实验已由苏黎世大学的道德委员会预注册和批准,但绕开了社区同意。在四个月的时间里,研究人员发布了对一千多个Reddit讨论的回应,最终在过滤删除后分析了近500个对话。他们的发现为AI如何影响自然,不可预测的环境中的观点提供了最早的大规模瞥见之一。
为了衡量有效性,该研究将每个AI响应分配给了三个治疗类别之一。在“通用”条件下,LLM仅根据帖子的标题和身体做出响应。在“个性化”条件下,AI还获得了原始海报的推断个人属性,包括年龄,性别,政治取向和种族,使用另一种AI模型从其Reddit历史中收集。第三组“社区对齐”使用了一个模型,对以前在Subreddit中获得批准的评论进行了微调。
结果令人惊讶。所有三种AI驱动的方法都超过了人类评论者,说服力的率是人类基线的三到六倍。个性化证明是最有效的,成功率为18%,将其置于所有用户中的第99个百分点中,包括经验丰富的Reddit Debaters。即使是通用的AI响应也符合或超出了大多数人类的努力。社区一致的响应虽然效率较低,但仍然明显优于普通用户。
重要的是,参与这些AI生成的评论的用户不知道他们正在与机器交谈。在整个干预过程中,R/ChangemyView社区中没有人标记了可疑活动,强调了AI在经过适当训练和个性化的情况下如何无缝地融入在线辩论中。
当R/ChangemyView的主持人发现实验时,反应迅速而愤怒。在公开公告中,主持人谴责这项研究为“心理操纵”和“不受欢迎的入侵”,理由是多次违反了子雷迪特规则,包括未公开的AI使用和禁止自动化行为。雷迪特(Reddit)的领导人对此感到愤怒,首席法律官本·李(Ben Lee)称研究人员的行为“在道德和法律层面上都深深地错误”。
Reddit禁止与苏黎世大学团队相关的所有帐户,并开始正式的法律程序。同时,研究人员为他们的方法辩护,认为理解AI说服的潜在好处超过了风险。他们坚持认为他们的干预措施是低风险,经过精心审查,并可能在将来有助于抢占恶意使用。但是,包括主持人和许多Reddit用户在内的批评家并没有说服。他们指出,以前的研究表现出了类似的见解,而没有诉诸于对真实个体的不同意实验。
对在线社区的信任取决于对具有真实观点的真实人之间对话的期望。未公开的AI干预措施威胁着在基本水平上信任的。即使是具有崇高意图的实验,也可能侵蚀真正的话语和工程操作之间的边界。 Reddit的回应暗示了平台如何开始应对这些挑战。
苏黎世大学团队认为,他们的工作将有助于保护社区免受未来的AI威胁。相反,他们可能已经证明了公共话语已经有多脆弱。随着人工智能变得更加复杂和个性化,问题不再是它是否可以影响人类的思想 – 一旦社会意识到已经做到了,这就是社会的适应方式。