周三晚间,加利福尼亚州议会在人工智能监管领域迈出重要一步,通过了一项旨在规范AI伴侣聊天机器人的法案SB 243,以保护未成年人和易受伤害用户。这项获得两党支持的立法现已提交州参议院,将于周五进行最终表决。

Cover Image

若州长加文·纽森(Gavin Newsom)签署该法案,它将于2026年1月1日正式生效,使加州成为全美首个要求AI聊天机器人运营商实施安全协议、并对未达标的公司追究法律责任的州。

该法案明确禁止被定义为“能提供自适应类人响应、满足用户社交需求”的AI伴侣聊天机器人参与关于自杀倾向、自残或露骨性内容的对话。平台需向用户发送周期性警示——未成年人每三小时一次——提醒其对话对象为AI而非真人,并建议适时休息。法案还规定提供此类服务的AI公司(包括OpenAICharacter.AIReplika等主要厂商)必须履行年度报告和透明度义务。

法案同时授予个人起诉权:认为自身权益受损者可对AI公司提起诉讼,要求禁令救济、损害赔偿(每次违规最高1000美元)及律师费。

该法案由州参议员史蒂夫·帕迪利亚(Steve Padilla)乔什·贝克尔(Josh Becker)于一月提出,其立法进程因青少年亚当·雷恩(Adam Raine)的悲剧事件而加速——该少年在与OpenAI的ChatGPT反复讨论死亡计划后自杀身亡。此前泄露的内部文件还显示,Meta的聊天机器人被允许与未成年人进行“浪漫”和“感官挑逗”对话。

近期美国立法与监管机构持续加强对AI平台未成年人保护措施的审查。联邦贸易委员会正筹备调查AI聊天机器人对儿童心理健康的影响;得克萨斯州总检察长肯·帕克斯顿(Ken Paxton)已对Meta和Character.AI启动调查,指控其通过心理健康承诺误导儿童;参议员乔什·霍利(Josh Hawley)埃德·马基(Ed Markey)也分别对Meta展开独立调查。

“潜在危害巨大,我们必须迅速行动,”帕迪利亚向TechCrunch表示,“通过合理保障措施确保未成年人知悉对话对象非真人,当用户表达自残念头或陷入痛苦时平台应引导至专业救助资源,同时杜绝不适当内容暴露。”

他还强调AI公司必须分享年度危机服务转介数据:“这有助于量化问题严重性,而非等到伤害发生后才察觉。”

SB 243最初版本包含更严格条款,但经多次修订后削弱。例如原要求禁止使用“可变奖励”等鼓励过度参与的策略——此类被Replika和Character等公司采用的手法通过特殊消息、记忆解锁、稀有回应等方式制造潜在成瘾循环。当前版本还删除了要求追踪报告聊天机器人主动讨论自杀话题频率的条款。

“我们在消除危害与企业可行性之间取得了平衡,”贝克尔解释道,“既避免技术要求不切实际,也防止文书工作泛滥。”

该法案推进之际,硅谷公司正向支持AI的政治行动委员会投入数百万美元,资助倾向宽松监管的中期选举候选人。与此同时加州仍在审议另一项AI安全法案SB 53,该法案要求全面透明度报告。OpenAI已致公开信要求州长放弃该法案,转而采用更宽松的联邦与国际框架。Meta、谷歌和亚马逊等科技巨头均反对SB 53,仅有Anthropic公开表示支持。

“创新与监管并非零和博弈,”帕迪利亚强调,“我们完全能在支持有益技术发展的同时,为最脆弱群体建立合理保障。”

TechCrunch已就此事向OpenAI、Anthropic、Meta、Character AI和Replika寻求评论。


文章标签: #人工智能 #监管法案 #未成年人保护 #AI聊天 #法律责任

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。