ChatGPT 背后的公司 OpenAI 正在采取措施解决对人工智能安全和治理的担忧。
首席执行官 Sam Altman 最近宣布,OpenAI 正在与美国人工智能安全研究所合作,以提供其下一个用于安全测试的主要生成式人工智能模型的早期访问权限。
在 OpenAI 对人工智能安全的承诺及其对政策制定的影响受到越来越多的审查之际,这一举措应运而生。
关于 openai 安全的一些快速更新:
正如我们去年 7 月所说,我们致力于将至少 20% 的计算资源分配给整个公司的安全工作。
我们的团队一直在与美国人工智能安全研究所合作,达成一项协议,我们将提供……
— 萨姆·奥特曼(@sama) 2024 年 8 月 1 日
与美国人工智能安全研究所合作
美国人工智能安全研究所是一家旨在评估和解决人工智能平台风险的联邦机构,它将有机会在 OpenAI 即将推出的人工智能模型公开发布之前对其进行测试。虽然协议的细节很少,但这次合作代表着朝着提高人工智能发展的透明度和外部监督迈出了重要一步。
此次合作是继此前达成的类似协议之后的又一合作。 OpenAI 今年 6 月,该公司与英国人工智能安全机构达成了一项协议,表明其在人工智能安全问题上与政府实体进行了合作。
解决安全问题
OpenAI 最近的行动似乎是对其被认为不重视人工智能安全研究的批评的回应。该公司此前解散了一个负责“超级智能”人工智能系统控制的部门,导致多名高管辞职并受到公众审查。
为了重建信任, OpenAI 有:
- 淘汰 限制性不贬损条款。
- 创建 安全委员会。
- 已承诺 20%的计算资源用于安全研究。
然而,一些观察人士仍然持怀疑态度,特别是在 OpenAI 在其安全委员会中任命公司内部人员并重新任命一名高级人工智能安全主管之后。
对人工智能政策的影响
OpenAI 与政府机构的合作以及其对《未来创新法案》的支持引发了人们对该公司对人工智能政策制定的影响力的质疑。这些举措的时机,加上 OpenAI 加大的游说力度,引发了人们对可能出现监管俘获的猜测。
机器去学习:人工智能真的会忘记吗?
奥特曼在美国国土安全部人工智能安全与保障委员会的职位进一步凸显了该公司在制定人工智能政策方面日益增强的参与度。
展望未来
随着人工智能技术持续快速发展,创新与安全之间的平衡仍然是一个关键问题。OpenAI与美国人工智能安全研究所的合作代表着朝着更加透明和负责任的人工智能发展迈出了一步。
然而,它也凸显了科技公司和监管机构在塑造人工智能治理未来方面的复杂关系。
科技界和政策制定者将密切关注这一合作关系如何发展,以及它将对人工智能安全和监管的更广泛领域产生什么影响。