谷歌 出版 发布后数周后,有关其最新AI模型Gemini 2.5 Pro的技术报告,但专家说该报告缺乏关键安全细节,因此很难评估该模型的风险。
该报告是Google为提供有关AI模型的透明度的努力的一部分,但它与竞争对手的不同之处在于,它仅针对其认为已经超出实验阶段的模型发布了技术报告。 Google还为单独的审核保留了一些安全评估结果。
专家,包括AI政策与战略研究所的联合创始人Peter Wildeford,以及安全AI项目的联合创始人Thomas Woodside, 表达 对报告的稀疏感到失望,并指出它没有提及Google的边境安全框架(FSF),去年引入以确定潜在的AI风险。
Wildeford表示,该报告在模型公开发布后几周发布的报告最少的信息使得无法验证Google对安全和保障的公开承诺。伍德赛德还质疑Google对及时安全评估的承诺,指出该公司的最后一次危险能力测试报告是在2024年6月,该报告于2024年2月宣布。
此外,Google尚未发布Gemini 2.5 Flash的报告,这是上周宣布的较小模型,尽管发言人说“即将推出”。托马斯·伍德赛德(Thomas Woodside)希望这表明Google将开始发布更多频繁的更新,包括对尚未公开部署的模型的评估。
其他AI实验室(例如Meta和OpenAI)也因其安全评估缺乏透明度而受到批评。民主与技术中心AI治理的高级顾问凯文·班克斯顿(Kevin Bankston)将零星和模糊的报告的趋势描述为AI安全性的“最底层”。
Google表示,即使在其技术报告中没有详细介绍,它也会为其模型进行安全测试和“对抗红色团队”。