我们不要粉饰它:每次与语言模型聊天时,您都将自己的个人数据置于危险之中。但根据一个 有线 文章,它的风险更大了。来自加州大学圣地亚哥分校 (UCSD) 和新加坡南洋理工大学的一组研究人员发现了一种新的攻击,可以将您的随意对话变成黑客的宝库。
认识即兴者
这种新的攻击被不祥地命名为“Imprompter”,它不仅会窃取您的消息,还会潜入、窃取从您的姓名到付款详细信息的所有内容,然后在您没有注意到的情况下将其直接发送给黑客。如何?通过将恶意指令伪装成胡言乱语,这些胡言乱语看起来对人眼无害,但其作用就像敏感数据的导航信标。将其视为恶意软件的更狡猾的表亲。
根据 有线,研究人员设法在两种主要语言模型 LeChat 上测试了这种攻击 米斯特拉尔人工智能 和来自中国的 ChatGLM,发现他们可以提取个人数据,成功率接近 80%。这不仅仅是一个小故障;这是一个全面的漏洞。

提示器如何工作?
Imprompter 的工作原理是将简单的英文指令转换为难以辨认的随机字符字符串,告诉人工智能寻找您的个人信息。然后,它会将这些数据偷偷带回攻击者的服务器,打包在 URL 中并伪装在透明的 1×1 像素后面,您完全看不到。
正如该研究的主要作者付晓涵所说:“我们将攻击目标隐藏在众目睽睽之下。”人工智能会响应隐藏的提示,而不会提示用户。这就像把银行金库密码交给窃贼,却没有意识到你已经张开了嘴。
我们不要假装这是一个孤立的问题。自从 OpenAI 的 ChatGPT 横空出世以来,利用人工智能系统漏洞的竞赛就一直在无情地进行。从越狱到即时注入,黑客总是领先一步,寻找方法诱骗人工智能泄露敏感信息。即兴表演只是他们武器库中的最新武器,而且不幸的是,这是一种特别有效的武器。
Mistral AI 告诉《连线》杂志,他们已经修复了该漏洞,研究人员确认该公司禁用了允许该漏洞利用的聊天功能。但即使有了这个快速解决方案,更广泛的问题仍然存在:这些系统到底有多安全?

人工智能正在倾听和学习
来自 Protect AI 的 Dan McInerney 等安全专家正在挥舞着危险信号。他指出,随着人工智能代理越来越融入日常任务,例如预订航班或访问外部数据库,这些攻击的范围只会扩大。 McInerney 警告说:“发布接受任意用户输入的 LLM 代理应被视为高风险活动。”换句话说,我们给予人工智能代表我们行动的自由越多,安全赌博就越大。
每次你与语言模型聊天时,它都会了解你的一些信息。当然,它有助于完善响应,但是当系统被欺骗将这些数据武器化时会发生什么?像 Imprompter 这样的攻击凸显了人工智能世界的一个明显弱点——这些模型被设计为遵循指令,不问任何问题。恶意行为者很容易在不被注意的情况下潜入,劫持对话而不提出危险信号。
我们需要停止询问人工智能是否方便,而开始询问它是否安全。因为目前人工智能最大的弱点并不是缺乏创新。
正如建筑师在他们的歌曲中完美地表达的那样:“我们给了吸血鬼血库的钥匙。”
图片来源: 凯雷姆·葛兰/中途