周一,Anthropic宣布正式支持加州第53号参议院法案(SB 53)。这项由州参议员斯科特·维纳(Scott Wiener)提出的法案,将对全球顶级人工智能模型开发商实施全美首创的透明度要求。在当前消费者技术协会(CTA)和进步商会(Chamber for Progress)等科技行业组织大力游说反对该法案的背景下,Anthropic的支持标志着SB 53获得了一次罕见的重要胜利。

Anthropic在博客文章中表示:“虽然我们认为前沿人工智能安全最好在联邦层面解决,而不是各州零散的监管,但强大的人工智能进步不会等待华盛顿达成共识。问题不在于我们是否需要人工智能治理——而在于我们是今天深思熟虑地制定它,还是明天被动地做出反应。SB 53为前者提供了一条坚实的道路。”
若获通过,SB 53将要求OpenAI、Anthropic、谷歌和xAI等前沿人工智能模型开发商制定安全框架,并在部署强大人工智能模型之前发布公共安全与安保报告。该法案还将为提出安全担忧的员工建立举报人保护机制。
参议员维纳的法案特别侧重于限制人工智能模型助长“灾难性风险”,该法案将其定义为至少导致50人死亡或造成超过10亿美元损失。SB 53关注的是人工智能风险的极端层面——限制人工智能模型被用于在创建生物武器方面提供专家级协助或被用于网络攻击——而不是人工智能深度伪造或谄媚行为等更近期的担忧。
加州参议院已批准了SB 53的先前版本,但仍需进行最终投票,然后才能提交至州长办公桌。州长加文·纽森(Gavin Newsom)目前对该法案保持沉默,尽管他此前否决了参议员维纳的上一个人工智能安全法案SB 1047。
监管前沿人工智能模型开发商的法案遭到了硅谷和特朗普政府的强烈反对,双方都认为此类努力可能会限制美国在与中国竞争中的创新能力。像安德森·霍洛维茨(Andreessen Horowitz)和Y Combinator这样的投资者带头对SB 1047提出了一些反对意见,最近几个月,特朗普政府多次威胁要阻止各州通过人工智能监管法规。
反对人工智能安全法案最常见的论点之一是各州应将此事交由联邦政府处理。安德森·霍洛维茨的人工智能政策主管马特·佩罗特(Matt Perault)和首席法律官杰伊·拉马斯瓦米(Jai Ramaswamy)上周发表了一篇博客文章,认为当今许多州级人工智能法案有可能违反宪法的商业条款——该条款限制州政府通过超出其边界的法律并损害州际商业。
然而,Anthropic联合创始人杰克·克拉克(Jack Clark)在X上的一篇帖子中反驳道,科技行业将在未来几年构建强大的人工智能系统,不能坐等联邦政府行动。
克拉克表示:“我们长期以来一直表示更倾向于联邦标准。但在缺乏联邦标准的情况下,这创建了一个不可忽视的坚实的人工智能治理蓝图。”
OpenAI全球事务主管克里斯·莱哈恩(Chris Lehane)于8月致信纽森州长,认为他不应通过任何会将初创公司挤出加州的人工智能监管法规——尽管信中没有点名提到SB 53。
OpenAI前政策研究主管迈尔斯·布伦迪奇(Miles Brundage)在X上的一篇帖子中表示,莱哈恩的信“充满了关于SB 53和人工智能政策的误导性垃圾”。值得注意的是,SB 53旨在仅监管全球最大的人工智能公司——特别是那些总收入超过5亿美元的公司。
尽管存在批评,政策专家表示SB 53相比之前的人工智能安全法案采取了更为温和的方式。美国创新基金会高级研究员、前白宫人工智能政策顾问迪恩·鲍尔(Dean Ball)在8月的一篇博客文章中说,他认为SB 53现在很有机会成为法律。曾批评SB 1047的鲍尔表示,SB 53的起草者“表现出对技术现实的尊重”,以及“立法上的克制”。
参议员维纳此前表示,SB 53深受纽森州长召集的一个专家政策小组的影响——该小组由斯坦福大学知名研究员、World Labs联合创始人李飞飞(Fei-Fei Li)共同领导——旨在就如何监管人工智能为加州提供建议。
大多数人工智能实验室已经具备了SB 53所要求的内部安全政策的某种版本。OpenAI、谷歌DeepMind和Anthropic定期发布其模型的安全报告。然而,这些公司除了自我约束外不受任何约束,因此有时它们会落后于自我设定的安全承诺。SB 53旨在将这些要求确立为州法律,如果人工智能实验室未能遵守,将面临经济处罚。
9月初,加州立法者对SB 53进行了修订,删除了要求人工智能模型开发商接受第三方审计的部分条款。科技公司在其他人工智能政策斗争中曾反对这类第三方审计,认为它们过于繁重。



