谷歌人工智能研究部门 Google DeepMind 的约 200 名员工对该公司与军事部门的合同表示担忧。据 时间, 他们要求谷歌停止与军事组织合作,认为这种对其技术的使用违反了谷歌的人工智能道德准则。
快速提醒: 当谷歌于 2014 年收购 DeepMind 时,该实验室 承诺其人工智能技术不会用于军事或监视目的多年来,DeepMind 一直保持独立运营。然而,随着人工智能竞争的加剧,DeepMind 与谷歌的融合度越来越高。2023 年,它与谷歌大脑合并,使其更接近谷歌的主要业务。
有争议的合同:Nimbus 项目及其他
问题围绕谷歌的云服务展开,包括 DeepMind 开发的人工智能,这些服务已出售给政府和军队。最具争议的合同是与以色列政府签订的 Nimbus 项目。这份合同受到批评,因为它支持参与加沙行动的以色列军方。
DeepMind 员工担心与军事组织合作违反了 Google 的 AI 原则。这些原则旨在确保以合乎道德和负责任的方式使用 AI。他们指出,AI 不应造成伤害,也不应被用于制造武器或侵犯人权的监视。
员工来信
2024 年 5 月 16 日,员工们发了一封信表达他们的担忧。信中说,虽然它没有针对特定的冲突或政府,但它担心使用 人工智能在军事领域的应用 设置。它认为,这种参与损害了 DeepMind 对道德 AI 的承诺。
这封信要求采取三项主要行动:
- 调查:了解军事组织如何使用 DeepMind 的技术。
- 终止:终止军事客户访问 DeepMind 技术。
- 治理:创建一个新机构,以防止未来军方使用 DeepMind 的技术。
公司的反应和挫败感
谷歌回应称,该公司遵循其 AI 原则,Nimbus 项目涉及向以色列政府部门提供云服务,而不是直接向军方提供。谷歌声称这些服务不适用于敏感的军事或机密用途。
然而,这封信的签署者认为,谷歌的回应不明确,并没有解决他们对利用其技术支持监视和暴力的担忧。
员工们对谷歌没有对他们的信采取行动感到沮丧,并认为领导层没有有效地解决他们的担忧。
在 6 月份的一次全体会议上,DeepMind 的首席运营官 Lila Ibrahim 向员工保证,DeepMind 不会开发用于武器或大规模监视的人工智能。她强调了谷歌对负责任的人工智能的承诺,她说这是她加入并留在公司的原因。
谷歌 DeepMind 的这一情况反映了科技行业关于将先进技术用于军事应用的更大争论。随着人工智能技术的不断发展,像谷歌这样的公司面临着平衡商业利益和道德责任的挑战。这场争议的结果可能会为未来如何开发和使用人工智能设定重要的指导方针。