佐治亚州立大学安德鲁·杨政策研究学院助理教授安德鲁·海斯表示,学术机构记录了人工智能对学术出版物中不存在的文章的大量引用,破坏了研究的合法性。海斯发现大型语言模型(LLM)正在生成伪造的引文,这些引文随后出现在专业学术中。当在谷歌学术中追踪虚假来源时,海斯观察到数十篇已发表的文章引用了这些不存在的研究和期刊的变体。与人工智能生成的文章经常被迅速撤回不同,这些幻觉的期刊问题正在其他期刊中被引用 文件,有效地使错误信息合法化。这一过程导致学生和学者在不验证其真实性的情况下接受这些“来源”的可靠,通过重复引用强化了可信度的幻觉。研究图书馆员报告称,他们花费了高达 15% 的工作时间来响应 ChatGPT 或 Google Gemini 等法学硕士生成的不存在记录的请求。海斯 著名的 人工智能生成的引文通常显得令人信服,其中包含在世学者的姓名和类似于现有文献的标题。在某些情况下,引文与实际作者相关,但包括模仿作者以前的作品或真实期刊的伪造文章标题和期刊标题。包括心理学家 Iris van Rooij 在内的学者警告说,人工智能在学术资源中“流失”的出现威胁着她所说的“知识的破坏”。 7月,范鲁伊和其他人签署了一份 公开信 倡导大学保障高等教育、批判性思维、专业知识、学术自由和科学诚信,敦促严格分析人工智能在教育中的作用。软件工程师 Anthony Moser 在 2023 年预测,聊天机器人可能会导致教师用不存在的读物创建教学大纲,而学生则依靠人工智能来总结或撰写论文,他现在表示这种情况已经成为现实。莫泽认为,将法学硕士的输出描述为“幻觉”歪曲了其功能,并指出预测模型“总是幻觉”并且“在结构上与事实无关”。他说,法学硕士污染了上游的信息生态系统,不存在的引用渗透到研究中并在后续论文中传播,将它们比作难以追踪或过滤的持久化学物质。莫泽将问题归因于“深思熟虑的选择”,并声称反对意见被“忽视或否决”。他承认“糟糕的研究并不新鲜”,但指出法学硕士放大了先前存在的发表和生产压力,导致论文数据有问题。加州大学圣地亚哥分校哲学教授兼科学哲学协会主席克雷格·卡伦德对此表示同意,并指出“不存在的期刊的合法性外观就像现有趋势的逻辑最终产品”。卡伦德指出,有些期刊为了盈利或有偏见的研究而接受虚假文章,从而在科学出版领域造成了日益严重的“沼泽”。他认为人工智能加剧了这个问题,人工智能辅助的谷歌搜索可能会强化这些捏造期刊的存在并传播虚假信息。研究人员报告称,随着虚假内容被纳入公共研究数据库,人们很难追踪这些说法的来源,从而引起了广泛的沮丧。





