Dataconomy CN
Subscribe
No Result
View All Result
Dataconomy CN
Subscribe
No Result
View All Result
Dataconomy CN
No Result
View All Result

谷歌利用法学硕士实时揭示人工智能驱动的恶意软件

Kerem GülenbyKerem Gülen
12 11 月, 2025
in Research
Home Research
Share on FacebookShare on Twitter

谷歌威胁情报小组(GTIG) 已确定 人工智能的恶意使用显着升级。对手不再仅仅使用人工智能来完成起草网络钓鱼电子邮件等生产力任务;他们现在正在部署新型恶意软件,在攻击期间主动使用人工智能来动态改变其行为。人工智能滥用的新阶段涉及谷歌所谓的“即时”人工智能。 GTIG 首次识别出在执行过程中使用大型语言模型 (LLM) 的恶意软件家族。这些工具可以动态生成恶意脚本或动态混淆自己的代码以逃避检测,而不是依赖于硬编码函数。报告详细介绍了几项新的 恶意软件 使用这种技术的家庭。在活动操作中观察到的“PROMPTSTEAL”是一个数据挖掘器,它向 LLM 查询 Hugging Face API,以生成用于收集系统信息的 Windows 命令。 “QUIETVAULT”也出现在野外,它是一种凭证窃取程序,它使用受害者计算机上安装的 AI CLI 工具来搜索其他秘密。另一种恶意软件“FRUITSHELL”包含专门设计用于绕过 LLM 支持的安全系统分析的硬编码提示。谷歌还发现了实验性恶意软件,包括“PROMPTFLUX”(一种使用 Google Gemini API 反复重写其源代码以保持隐藏状态的植入程序)和“PROMPTLOCK”(一种在运行时动态生成恶意脚本的概念验证勒索软件)。 GTIG 报告还发现,威胁行为者正在采用“社会工程”技术来绕过人工智能安全护栏。谷歌观察到,演员冒充参加“夺旗”竞赛的学生或网络安全研究人员,说服 Gemini 提供信息,例如帮助开发工具,否则这些信息将被屏蔽。包括来自朝鲜、伊朗和中华人民共和国 (PRC) 在内的国家支持的行为者继续使用 Gemini 等人工智能来增强其行动的各个阶段,从侦察和网络钓鱼诱饵创建到开发指挥和控制 (C2) 基础设施。此外,谷歌指出,非法人工智能工具的地下市场已于 2025 年成熟,提供多功能工具,降低了不太复杂的攻击者的进入门槛。谷歌表示,它正在通过禁用与​​这些参与者相关的项目和帐户来积极破坏这一活动。该公司强调,它正在不断改进包括 Gemini 在内的模型,以使其不易被滥用,并正在应用情报来增强其安全分类器。


特色图片来源

Tags: 人工智能勒姆恶意软件谷歌

Related Posts

科学家发现超过17,000个新物种

科学家发现超过17,000个新物种

26 12 月, 2025
GPT-5.2 科学得分超过专家博士基线 92%

GPT-5.2 科学得分超过专家博士基线 92%

24 12 月, 2025
为什么 DIG AI 是 2025 年最危险的恶意 AI

为什么 DIG AI 是 2025 年最危险的恶意 AI

23 12 月, 2025
研究人员突破离子瓶颈,钠离子电池更接近快速充电

研究人员突破离子瓶颈,钠离子电池更接近快速充电

19 12 月, 2025
抓住2万亿美元的幽灵:人工智能正在改写金融犯罪规则

抓住2万亿美元的幽灵:人工智能正在改写金融犯罪规则

15 12 月, 2025
法学硕士在英语与中文提示中表现出明显的文化偏见

法学硕士在英语与中文提示中表现出明显的文化偏见

15 12 月, 2025
Please login to join discussion

Recent Posts

  • 阿里巴巴Qwen Code v0.5.0将终端转变为完整的开发生态
  • Bethesda 的目标是《辐射 5》的游戏时长达到 600 小时
  • 华硕为 RTX 5090 HyperX 电源端口错位辩护 "有意设计"
  • NVIDIA 在 GitHub 上开源 CUDA Tile IR
  • MicroStrategy 首席执行官表示比特币基本面 "好得不能再好了"

Recent Comments

您尚未收到任何评论。
Dataconomy CN

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.