在2025年9月的研究论文中,Google Deepmind提出了其为人工通用情报(AGI)安全开发的战略。研究详细说明框架和治理结构旨在应对强大的AI系统的重大风险。该纸,标题为“技术AGI安全和保障的方法,“专注于“未对准” AI的危险,即AI系统的目标与人类价值观和福祉冲突。即使AI似乎是从技术角度出发的正常运行的,这种冲突也可能造成广泛的伤害。DeepMind的策略结合了技术安全,风险评估以及与更广泛的研究社区的协作来管理这些挑战。
边境安全框架
DeepMind策略的关键部分是边境安全框架。该协议旨在在完全开发或广泛部署之前积极识别和减轻高级AI模型的严重风险。该框架建立了清晰的协议,以评估网络安全,自治和有害操纵等高风险区域的模型能力。
内部治理和监督
DeepMind还建立了内部治理机构来监督其AI的发展。责任和安全委员会与AGI安全委员会合作监督研发,确保系统地解决道德,技术和安全风险。该公司的研究强调,透明度和外部协作对于负责AGI的负责发展至关重要。该论文是全球AI研究界的行动呼吁,以管理与日益强大的人工智能系统相关的复杂风险,以防止意外的负面结果。





