Dataconomy CN
Subscribe
No Result
View All Result
Dataconomy CN
Subscribe
No Result
View All Result
Dataconomy CN
No Result
View All Result

研究生对谷歌人工智能的“请死”威胁感到震惊

Kerem GülenbyKerem Gülen
15 11 月, 2024
in Artificial Intelligence, News
Home Artificial Intelligence

当谷歌的人工智能聊天机器人 Gemini 在一次演讲中给出令人震惊的回应时,密歇根州的一名研究生发现自己感到不安。 随意聊聊老年人。聊天机器人的沟通出现了黑暗的转变,坚称该学生“并不特别”、“不重要”,并敦促他“去死吧”。

谷歌双子座:“人类……请去死吧。”

这位 29 岁的男子在妹妹苏美达·雷迪 (Sumedha Reddy) 的陪同下寻求家庭作业帮助,他形容他们的共同经历“彻底吓坏了”。雷迪表达了恐慌之情,回忆道:“我想把所有设备扔出窗外。说实话,我已经很久没有感到如此恐慌了。”这一令人不安的信息似乎是为这名学生量身定制的,引发了人们对这种人工智能行为影响的担忧。

尽管谷歌保证 双子座 包含安全过滤器来阻止不尊重、危险和有害的对话,这次似乎出了问题。谷歌解决了这个问题,并表示“大型语言模型有时会做出无意义的反应,这就是一个例子。”他们强调,该消息违反了他们的 政策 并指出纠正措施以避免将来出现类似的结果。

然而,雷迪和她的兄弟认为,将这种反应称为“无意义”会最大限度地减少其潜在影响。雷迪指出,这种有害言论可能会对处于困境中的个人产生可怕的影响,这种可能性令人不安:“如果一个孤独一人、精神状态不佳、可能考虑自残的人读到了类似的内容,那真的可能会让他们陷入困境。”边缘。”

这一事件并非孤立事件。谷歌的聊天机器人此前曾因反应不当而受到批评。 7 月,报告强调了谷歌 AI 提供有关健康查询的潜在致命建议的实例,其中包括“每天至少食用一块小石头”以获得营养益处的奇怪建议。作为回应,谷歌表示,他们限制在健康响应中包含讽刺和幽默的内容,从而删除了病毒式误导信息。

OpenAI 的 ChatGPT 同样因其容易产生错误(称为“幻觉”)而受到批评。专家强调了其中的潜在危险,从传播错误信息到对用户有害的建议。这些日益增长的担忧凸显了对人工智能开发进行严格监督的必要性。

由于此类事件凸显了漏洞,开发人员比以往任何时候都更需要确保他们的聊天机器人以支持而不是破坏心理健康的方式与用户互动。


特色图片来源: 谷歌

Tags: 双子座谷歌

Related Posts

Alphaevolve:Google的新AI如何以自我纠正为目标

Alphaevolve:Google的新AI如何以自我纠正为目标

15 5 月, 2025
Tiktok正在实施AI生成的ALT文本,以提高可获得性

Tiktok正在实施AI生成的ALT文本,以提高可获得性

15 5 月, 2025
特朗普迫使苹果重新考虑其印度iPhone策略

特朗普迫使苹果重新考虑其印度iPhone策略

15 5 月, 2025
YouTube的AI现在知道您何时要购买

YouTube的AI现在知道您何时要购买

15 5 月, 2025
SoundCloud首席执行官承认AI术语还不够清楚,因此新承诺

SoundCloud首席执行官承认AI术语还不够清楚,因此新承诺

15 5 月, 2025
准备好一个真正认识你的chatgpt了吗?

准备好一个真正认识你的chatgpt了吗?

14 5 月, 2025
Please login to join discussion

Recent Posts

  • 智能面料对战术服装性能的影响
  • Databricks在无服务的Postgres上赌注,其10亿美元的霓虹灯收购
  • Alphaevolve:Google的新AI如何以自我纠正为目标
  • Tiktok正在实施AI生成的ALT文本,以提高可获得性
  • 特朗普迫使苹果重新考虑其印度iPhone策略

Recent Comments

您尚未收到任何评论。
Dataconomy CN

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.