周一,Anthropic宣布正式支持SB 53,这是一项由加州参议员Scott Wiener提出的法案,该法案对全球最大AI模型开发者施加了全国首创的透明度要求。Anthropic的支持标志着SB 53在主要科技团体如CTA和Chamber for Progress等反对的情况下,取得了罕见且重大的胜利。
“虽然我们认为前沿AI安全问题最好在联邦层面解决,而不是通过各州法规的拼凑,但AI技术的快速发展不会等待华盛顿的共识。” Anthropic在一篇博客文章中表示。“问题不在于我们是否需要AI治理,而在于我们今天是否会深思熟虑地发展它,还是明天被动地应对。SB 53为前者提供了一条坚实的路径。”
如果通过,SB 53将要求像OpenAI、Anthropic、Google和xAI这样的前沿AI模型开发者制定安全框架,并在部署强大的AI模型之前发布公共安全和安全报告。该法案还将为那些提出安全问题的员工提供举报者保护。
Wiener参议员的法案特别关注限制AI模型对“灾难性风险”的贡献,该法案将其定义为至少50人死亡或超过10亿美元的损失。SB 53关注的是AI风险的极端方面——限制AI模型被用于提供生物武器的专家级协助,或用于网络攻击——而不是更短期的担忧,如AI深度伪造或谄媚。
加州参议院已批准了SB 53的早期版本,但仍需对该法案进行最终投票,然后才能提交给州长。州长Gavin Newsom迄今对该法案保持沉默,尽管他否决了Wiener参议员的上一个AI安全法案,SB 1047。
针对前沿AI模型开发者的法案面临来自硅谷和特朗普政府的重大反对,他们都认为这样的努力可能会限制美国在与中国竞争中的创新。像Andreessen Horowitz和Y Combinator这样的投资者领导了一些对SB 1047的反对,最近几个月,特朗普政府多次 威胁阻止各州通过AI法规。
反对AI安全法案的最常见论点之一是各州应将此事留给联邦政府。Andreessen Horowitz的AI政策负责人Matt Perault和首席法律官Jai Ramaswamy在上周发表了一篇博客文章,认为今天的许多州AI法案有违反宪法的商业条款的风险——该条款限制州政府通过超出其边界并损害州际商业的法律。
然而,Anthropic的联合创始人Jack Clark在一篇X上的帖子中辩称,科技行业将在未来几年构建强大的AI系统,不能等待联邦政府采取行动。
“我们一直说我们更希望有一个联邦标准,” Clark说。“但在没有这种标准的情况下,这为AI治理创造了一个不可忽视的坚实蓝图。”
OpenAI的首席全球事务官Chris Lehane在8月向州长Newsom发送了一封信,建议他不要通过任何会将初创企业推离加州的AI法规——尽管信中没有提到SB 53的名字。
OpenAI前政策研究负责人Miles Brundage在一篇X上的帖子中表示,Lehane的信中充满了关于SB 53和AI政策的一般性误导性内容。值得注意的是,SB 53旨在仅监管全球最大的AI公司——特别是那些产生超过5亿美元总收入的公司。
尽管受到批评,政策专家表示SB 53比之前的AI安全法案更为温和。美国创新基金会的高级研究员兼前白宫AI政策顾问Dean Ball在8月的一篇博客文章中表示,他相信SB 53现在有很好的机会成为法律。Ball批评了SB 1047,他说SB 53的起草者“对技术现实表现出尊重”,以及“立法克制的程度”。
Wiener参议员此前表示SB 53受到一个专家政策小组的重大影响,该小组由州长Newsom召集——由斯坦福大学的领先研究员和World Labs的联合创始人李飞飞共同领导——以建议加州如何监管AI。
大多数AI实验室已经有了SB 53要求的某种版本的内部安全政策。OpenAI、Google DeepMind和Anthropic定期为其模型发布安全报告。然而,这些公司并不受任何人约束,只能自行决定,有时他们落后于他们自我设定的安全承诺。SB 53旨在将这些要求设为州法律,如果AI实验室未能遵守,将面临经济后果。
9月初,加州立法者修改了SB 53,删除了法案中的一节,该节本来要求AI模型开发者接受第三方审计。科技公司在之前的AI政策争斗中反对这些类型的第三方审计,认为它们过于繁重。