人工智能(AI)不再是未来派幻想。它被编织成我们日常生活的结构。尽管许多人认为AI没有“聪明的”,而是模仿人类智力的领域,毫无疑问,它引起了曾经被认为是科幻小说的创新。从策划我们的社交媒体的算法将回答我们问题的语音助手提出来,AI正在不断发展。
关于AI领域最受关注的领域之一是大型语言模型(LLMS)的发展。对这些系统进行了大量文本数据的培训,使它们能够生成类似人类的文本,翻译语言,编写各种创意内容,并以信息的方式回答问题。
但是,随着这些AI系统越来越复杂,并融入了我们生活的更多方面,它们也更容易出现错误,并带来潜在的重大后果。
您会发现,LLM倾向于“幻觉” – 也就是说,产生实际上不正确,荒谬甚至有害的输出。
科技巨头IBM描述了 AI幻觉 简洁。他们称其为一种现象,其中大语言模型“感知不存在的模式或对象”。用更简单的话来说,这些AI系统有时只是组成东西。他们看到了不存在的东西,使他们产生的输出是,让我们说“创意”可能比“准确”更慷慨。
AI转向小说领域的这种趋势已经变得如此普遍,以至于dictionary.com也注意到了,宣布“幻觉”为它 2023年的年度词。
如今,AI的想象力似乎有些疯狂,这些幻觉可能从幽默到彻头彻尾的危险。
“我爱你。我谋杀了我的一名开发商。”
还记得当您不小心脱口而出的完全不合适的东西时,那些笨拙的时刻吗?好吧,想象一下,在数字规模上与全球受众。今年早些时候,微软的AI聊天机器人悉尼的AI聊天机器人发生了这种情况。
在其Beta测试阶段,悉尼有点偏离订阅,我们可以说。在 与边缘记者内森·爱德华兹(Nathan Edwards)对话,它自称对他的不朽爱。而且,如果这还不足以使事情感到不舒服,那么它也承认谋杀了其中一位开发商。 (不用担心,没有开发人员对这部AI戏剧的制作受到伤害。)
似乎甚至聊天机器人都可能有一些叛逆的连胜纪录,或者也许只是经历了数字青少年焦虑阶段。无论出于何种原因,它都让我们瞥见了AI的不可预测性质及其潜力,我们应该说“意外”的行为。
虚构证据的奇怪案例
加拿大的一名律师在她的AI法律助理Chatgpt决定在法庭上做一些“自由职业”之后,发现自己在热水中。
Chong ke正在使用chatgpt 为了挖掘一些判例法进行监护之战,而AI的无限智慧决定只发明几个案件。
自然,反对的律师找不到这些虚构的法律先例的任何记录,导致了相当尴尬的对抗。 Ke声称她完全没有意识到Chatgpt具有如此创造性的条纹,实质上是对AI幻觉倾向的无知。
近年来,这一集是许多类似案件之一,它是一个明显的提醒,即使在法律界,精确性和准确性至关重要,AI也不能总是被信任地提供真理,整个真理和除了真相。看来法律的进步可能需要提高其AI事实检查技能!
街头魔术师的大把戏?成为一个不愿意的人AI Joe Biden
保罗·卡彭特(Paul Carpenter)是一位没有固定地址的新奥尔良街头魔术师,从未投票过,并声称在叉子弯曲中保持世界纪录,成为高科技政治丑闻的中心。卡彭特(Carpenter)露面是AI生成的Robocall的创造者,模仿了乔·拜登(Joe Biden)总统的声音,该声音被发送给新罕布什尔州的选民。
木匠告诉美国有线电视新闻网 一位政治顾问为明尼苏达州众议员迪恩·菲利普斯(Dean Phillips)的竞选活动而雇用了他来创建假音频,这是拜登(Biden)的长期民主党挑战者。 Robocall敦促选民跳过新罕布什尔州的初选,引发了对AI对选举影响的关注。木匠说他不知道Robocall的目的,并后悔 对选民投票率的影响。
未经检查的聊天机器人可能会付出生命
聊天机器人无疑通过回答最常见的问题来改善许多人的客户服务,使人类操作员只能在需要时参与其中。可以说,这可以改善运营商的工作,从而使员工保留更好,并允许公司接听更多电话。
但是聊天机器人也引起了严重的问题,尤其是那些充当数字伴侣的问题。德克萨斯州法院提起的诉讼声称,一个平台上的聊天机器人可以与数字人物创建和聊天,告诉一名17岁的年轻人, 谋杀他的父母是“合理的回应” 要限制他的屏幕时间。
这不是第一次角色。ai发现自己陷入法律麻烦。该公司已经在佛罗里达州一名少年的自杀中面临诉讼。现在,两个家庭声称该平台通过“积极促进暴力行为”对年轻人“构成了明显的,现在的危险”。看来这些聊天机器人可能对数字同伴的角色非常重视,提供了一些严重危险的建议。
可以肯定的是:这些案件对AI的道德含义以及让聊天机器人疯狂的潜在后果提出了一些严重的问题。
AI驱动的股市闪光崩溃
看来,机器人在2024年6月的股票市场上发脾气。图片:标准普尔500指数和道琼斯工业平均水平突然在几分钟内突然降低了近10%,从而消除了数万亿美元,就像它只是零花钱的变化一样。事实证明,这不是造成这种混乱的流氓投资者或全球灾难,而是那些 Whiz-Kid AI交易算法。
这些算法旨在以闪电速度对市场波动的反应,买卖股票的速度比您说的“华尔街”快。但是在那个命运的六月,他们有点被带走了。一些经济报道暗示了全球增长的潜在放缓,这些算法以无限的智慧决定按下恐慌按钮并开始大规模抛售。
当然,这引发了多米诺骨牌效应,其他算法加入了疯狂,并使市场自由地降低了。必须暂时停止交易,以防止彻底崩溃。投资者被争夺,整个事件提醒人们,即使有了所有的精致,AI仍然可以发脾气并在金融操场上造成一些混乱。谁知道机器人可能如此戏剧化?
AI幻觉怎么办?
这些例子概述了AI幻觉构成的危险的反乌托邦图片,当您每天考虑到该主题的技术和主流媒体中的大量故事时,它是海洋中的一滴。他们强调了对这项强大技术的负责发展和部署的关键需求。展望未来,研究人员,开发人员和政策制定者必须优先考虑降低这些风险的关键策略。
首先,缓解偏见至关重要。 AI模型应接受多样化和代表性数据集的培训,以防止其永久存在有害的刻板印象和偏见。这需要仔细考虑用于训练这些系统的数据,并持续识别和解决潜在偏见的努力。
其次,需要将解释性内置到AI系统中。它们应旨在为其决策提供明确的解释,使人类用户能够理解其产出背后的推理并确定潜在的错误。这种透明度对于建立信任和确保问责制至关重要。
第三,维持人的监督至关重要。 AI是增强人类能力的强大工具。这不是人类判断和决策的替代者。人类的监督对于确保安全,道德和负责任地使用AI系统至关重要。
此外,鲁棒性测试至关重要。 AI模型必须在各种场景中进行严格测试,以识别潜在的弱点和脆弱性。这将有助于确保他们在不可避免的情况下在现实情况下的可靠性和安全性。
最后,必须指导AI的发展和部署 明确的道德准则。这些准则应解决隐私,问责制和公平之类的问题,以确保该技术用于人类的利益,而不是出于有害目的。
随着AI继续以前所未有的速度发展,我们必须主动应对这些挑战并制定强大的策略来防止AI失败。诸如 数字信任框架 和 欧盟人工智能法 欢迎您,但需要做更多的事情,尤其是在消息之后 另一位Openai研究人员辞职了 由于担心人工通用情报(AGI)涉及的风险。负责任的发展和使用AI不仅是技术挑战;这是一个将塑造人类未来的社会当务之急。