谷歌威胁情报小组(GTIG) 已确定 人工智能的恶意使用显着升级。对手不再仅仅使用人工智能来完成起草网络钓鱼电子邮件等生产力任务;他们现在正在部署新型恶意软件,在攻击期间主动使用人工智能来动态改变其行为。人工智能滥用的新阶段涉及谷歌所谓的“即时”人工智能。 GTIG 首次识别出在执行过程中使用大型语言模型 (LLM) 的恶意软件家族。这些工具可以动态生成恶意脚本或动态混淆自己的代码以逃避检测,而不是依赖于硬编码函数。报告详细介绍了几项新的 恶意软件 使用这种技术的家庭。在活动操作中观察到的“PROMPTSTEAL”是一个数据挖掘器,它向 LLM 查询 Hugging Face API,以生成用于收集系统信息的 Windows 命令。 “QUIETVAULT”也出现在野外,它是一种凭证窃取程序,它使用受害者计算机上安装的 AI CLI 工具来搜索其他秘密。另一种恶意软件“FRUITSHELL”包含专门设计用于绕过 LLM 支持的安全系统分析的硬编码提示。谷歌还发现了实验性恶意软件,包括“PROMPTFLUX”(一种使用 Google Gemini API 反复重写其源代码以保持隐藏状态的植入程序)和“PROMPTLOCK”(一种在运行时动态生成恶意脚本的概念验证勒索软件)。 GTIG 报告还发现,威胁行为者正在采用“社会工程”技术来绕过人工智能安全护栏。谷歌观察到,演员冒充参加“夺旗”竞赛的学生或网络安全研究人员,说服 Gemini 提供信息,例如帮助开发工具,否则这些信息将被屏蔽。包括来自朝鲜、伊朗和中华人民共和国 (PRC) 在内的国家支持的行为者继续使用 Gemini 等人工智能来增强其行动的各个阶段,从侦察和网络钓鱼诱饵创建到开发指挥和控制 (C2) 基础设施。此外,谷歌指出,非法人工智能工具的地下市场已于 2025 年成熟,提供多功能工具,降低了不太复杂的攻击者的进入门槛。谷歌表示,它正在通过禁用与这些参与者相关的项目和帐户来积极破坏这一活动。该公司强调,它正在不断改进包括 Gemini 在内的模型,以使其不易被滥用,并正在应用情报来增强其安全分类器。





