最近一项涉及 10,000 多名参与者的研究表明,依靠大型语言模型 (LLM) 来总结信息可能会减少知识获取。市场营销学教授 Jin Ho Yun 和 Shiri Melumad 共同撰写了一篇论文,详细介绍了七项研究的这一发现。参与者的任务是通过 ChatGPT 等法学硕士或标准的谷歌搜索来学习蔬菜园艺等主题。研究人员对工具的使用时间或参与者的互动没有限制。参与者随后根据他们学到的信息为朋友写了建议。数据一致显示,那些使用法学硕士进行学习的人认为他们学到的东西更少,并且在建议创建方面投入的精力也更少。他们的建议更短、更不切实际、更笼统。一个独立的读者样本发现,法学硕士得出的建议信息较少,帮助较小,而且不太可能采用它。这些差异在不同的背景下仍然存在。一项实验通过向参与者展示来自 Google 和 ChatGPT 搜索的相同事实来控制信息折衷主义的潜在变化。另一项实验保持搜索平台不变——谷歌——同时改变参与者是从标准谷歌结果还是谷歌的人工智能概述功能中学习。即使事实和平台标准化,与通过标准网络链接收集、解释和综合信息相比,从综合法学硕士回答中学习也会导致知识更浅薄。该研究将学习的减少归因于积极参与度的减少。谷歌搜索涉及更多“摩擦”,需要导航、阅读、解释和综合各种网络链接,从而促进更深入的心理表征。法学硕士为用户执行此过程,将学习从主动转变为被动。鉴于法学硕士在其他方面的好处,研究人员并不主张避免攻读法学硕士。相反,他们建议用户通过了解法学硕士对他们的目标有利或有害的方面来变得更具战略性。对于快速、真实的答案,法学硕士是合适的。然而,为了发展深入的、可推广的知识,仅仅依靠法学硕士的综合是不太有效的。进一步的实验涉及专门的 GPT 模型,提供实时网络链接以及合成响应。收到法学硕士摘要的参与者没有动力去探索原始来源,导致与使用标准谷歌的参与者相比,他们的知识更浅薄。未来的研究将探索生成式人工智能工具,引入“健康摩擦”,以鼓励超越容易合成的答案的主动学习,特别是在中学教育中。本文转载自 对话。





