当谷歌的人工智能聊天机器人 Gemini 在一次演讲中给出令人震惊的回应时,密歇根州的一名研究生发现自己感到不安。 随意聊聊老年人。聊天机器人的沟通出现了黑暗的转变,坚称该学生“并不特别”、“不重要”,并敦促他“去死吧”。
谷歌双子座:“人类……请去死吧。”
这位 29 岁的男子在妹妹苏美达·雷迪 (Sumedha Reddy) 的陪同下寻求家庭作业帮助,他形容他们的共同经历“彻底吓坏了”。雷迪表达了恐慌之情,回忆道:“我想把所有设备扔出窗外。说实话,我已经很久没有感到如此恐慌了。”这一令人不安的信息似乎是为这名学生量身定制的,引发了人们对这种人工智能行为影响的担忧。
尽管谷歌保证 双子座 包含安全过滤器来阻止不尊重、危险和有害的对话,这次似乎出了问题。谷歌解决了这个问题,并表示“大型语言模型有时会做出无意义的反应,这就是一个例子。”他们强调,该消息违反了他们的 政策 并指出纠正措施以避免将来出现类似的结果。
然而,雷迪和她的兄弟认为,将这种反应称为“无意义”会最大限度地减少其潜在影响。雷迪指出,这种有害言论可能会对处于困境中的个人产生可怕的影响,这种可能性令人不安:“如果一个孤独一人、精神状态不佳、可能考虑自残的人读到了类似的内容,那真的可能会让他们陷入困境。”边缘。”
这一事件并非孤立事件。谷歌的聊天机器人此前曾因反应不当而受到批评。 7 月,报告强调了谷歌 AI 提供有关健康查询的潜在致命建议的实例,其中包括“每天至少食用一块小石头”以获得营养益处的奇怪建议。作为回应,谷歌表示,他们限制在健康响应中包含讽刺和幽默的内容,从而删除了病毒式误导信息。
OpenAI 的 ChatGPT 同样因其容易产生错误(称为“幻觉”)而受到批评。专家强调了其中的潜在危险,从传播错误信息到对用户有害的建议。这些日益增长的担忧凸显了对人工智能开发进行严格监督的必要性。
由于此类事件凸显了漏洞,开发人员比以往任何时候都更需要确保他们的聊天机器人以支持而不是破坏心理健康的方式与用户互动。
特色图片来源: 谷歌