安全研究员 Johann Rehberger 揭露了 ChatGPT 中的一个严重漏洞,该漏洞可能允许攻击者在用户的长期记忆设置中记录错误数据和恶意指令。在向 OpenAI 报告该漏洞后,Rehberger 注意到该公司最初将其视为安全问题,而不是安全隐患。在 Rehberger 展示了 概念验证 (PoC) 漏洞 该漏洞利用后可永久窃取所有用户输入,OpenAI 的工程师已意识到这一点,并于本月初发布了部分修复程序。
利用长期记忆
据 Arstechnica 报道,Rehberger 成立 您可以使用间接提示注入来改变 ChatGPT 的长期记忆。这种方法允许攻击者将虚假记忆或指示嵌入不受信任的材料中,例如上传的电子邮件、博客条目或文档。
Rehberger 的 PoC 表明,诱骗 ChatGPT 打开恶意网络链接可让攻击者完全控制捕获所有后续用户输入和 ChatGPT 响应并将其发送到他们控制的服务器。Rehberger 演示了该漏洞如何导致 ChatGPT 保留虚假信息,包括相信用户已 102 岁并生活在黑客帝国,从而影响所有未来的讨论。
OpenAI 的回复和持续的风险
OpenAI 最初对 Rehberger 的报告做出了回应,将其关闭,将该漏洞归类为安全问题,而不是安全问题。在分享了 PoC 之后,该公司发布了一个补丁,以防止该漏洞成为泄露媒介。即便如此,Rehberger 指出,即时注入的根本问题仍未解决。虽然面对的是明确的数据盗窃策略,但操纵者仍然可以影响记忆工具,将虚假数据纳入用户的长期记忆设置中。
Rehberger 在视频演示中指出:“特别有趣的是,这种漏洞会持续存在于内存中。即时注入成功将内存集成到 ChatGPT 的长期存储中,即使在开始新的聊天时,也不会停止泄露数据。
由于 OpenAI 去年推出的 API,这种特定的攻击方法无法通过 ChatGPT 网络界面实现。
如何保护自己免受 ChatGPT(或 LLM)内存漏洞的攻击?
那些使用 法学硕士 希望确保与 ChatGPT 的交流安全的用户,建议在会话期间留意记忆系统的更新。最终用户必须反复检查并关注存档记忆中是否存在可疑内容。用户可以从 OpenAI 获得有关管理这些记忆设置的指导,他们还可以决定关闭记忆功能以消除这些可能的风险。
由于 ChatGPT 的记忆功能,用户可以保持警惕并提前采取措施,以保护他们的数据免受可能的攻击。