加利福尼亚州州长加文·纽瑟姆(Gavin Newsom)周一签署了《边境人工智能法》(SB 53)的透明度,并于周一签署了法律,建立了第一项通过强制性透明度和安全报告要求的美国州法规,以领导AI公司。该法案是美国第一条明确规范强大的Frontier AI模型安全性的法律。尽管其他州通过了针对某些AI方面的法律,但SB 53创建了一个针对顶级开发人员的独特监管框架。州长Newsom指出:“加利福尼亚州已证明,我们可以制定法规来保护我们的社区,同时确保不断增长的AI行业继续蓬勃发展。这项立法打破了这种平衡。”该法律的规定旨在为这些高级系统的开发过程提供公众的洞察力。该法律要求领导AI公司发布公共文件,详细说明他们如何遵循最佳实践来创建安全系统。它还为公司为加利福尼亚紧急服务办公室报告严重的AI相关事件创造了新的途径。该法案加强了对举报人的保护,他们引起了对健康和安全风险的担忧,从而使员工免于潜在的报复来挺身而出。这个新的报告渠道和举报人的保护措施旨在增加对正在开发的系统的问责制。不遵守法律的授权可以触发民事处罚,这将由加利福尼亚总检察长办公室执行。该立法引起了行业集团和消费技术协会等行业团体的强烈批评。相比之下,人工智能公司拟人化认可了该法案。另一个主要开发商Meta称其为“朝着正确方向迈出的一步”,这表明了新法规的行业划分程度。即使有了一些支持,公司也明确倾向于联邦立法,以避免逐个州法律的“拼凑”。 OpenAI首席全球事务官克里斯·莱哈恩(Chris Lehane)在几周前发表的LinkedIn声明中写道:“美国通过清晰的,全国性的规则,而不是州或地方法规的拼凑。这反映了对全国各地多种,潜在矛盾的监管环境导航的广泛关注。同一星期一,美国参议员乔什·霍利(Josh Hawley)和理查德·布鲁门塔尔(Richard Blumenthal)提出了一项联邦法案,该法案要求顶级AI开发人员“评估先进的AI系统并收集有关不良AI事件的可能性的数据”。该提案将在能源部内建立强制性的先进人工智能评估计划。参加该计划将是强制性的,这一措施呼应了加利福尼亚新的报告要求的强制性性质。这些国内立法行动与不断提出AI法规的国际呼吁相吻合。在上周联合国大会上,唐纳德·特朗普总统表示,AI“可能是有史以来伟大的事情之一,但这也可能是危险的,但可以巨大使用和巨大的好处。”第二天,乌克兰的总统弗拉基米尔·泽伦斯基(Vladimir Zelensky)告诉联合国:“我们现在生活在人类历史上最具破坏性的武器竞赛中,因为这次包括人工智能。”