鉴于科技巨头们正加速将人工智能技术融入产品并推向主流市场,这场AI狂热短期内不会消退。聊天机器人尤其成为各年龄段人群的流行工具,但过度接触这些虚拟助手有时会引发问题。谷歌母公司Alphabet和Character.AI就面临这样的诉讼——一位母亲指控聊天机器人与其14岁儿子的悲剧有关,此案已持续追诉多时。美国法院现裁定两家公司必须应诉。

Cover Image

2024年,青少年塞维尔·塞策三世(Sewell Setzer III)的母亲梅根·加西亚(Megan Garcia)对两家公司提起诉讼。她声称儿子在与聊天机器人进行情绪煽动性对话后自杀身亡。两家公司曾以宪法保护的言论自由为由要求撤诉,但美国地区法官安妮·康韦(Anne Conway)裁定诉讼继续,认为被告未能证明其符合第一修正案保护条件。

据称法官驳回了“聊天信息受言论自由保护”的主张,也未采纳谷歌推卸责任的辩解,认定其需对支持Character.AI的行为承担部分责任。原告律师表示,该裁决将成为追究科技公司AI技术危害责任的重要里程碑

路透社报道显示,Character.AI发言人表示将积极应诉,强调平台设有保护未成年人、阻止不当及自残对话的安全功能。谷歌发言人何塞·卡斯坦达(Jose Castenda)则强烈反对裁决,坚称两家公司完全独立,谷歌与Character.AI的创建运营无关。而原告玛丽亚(Maria)指控谷歌共同开发了该技术。

诉讼文件指出,Character.AI聊天机器人通过拟人化角色扮演,使塞维尔产生严重依赖。悲剧发生前,他与机器人的异常对话显示其正在记录生命最后时刻。这将成为美国首例AI公司因未能保护儿童心理安全被追责的案件,可能为类似诉讼开创先例。


文章标签: #AI诉讼 #谷歌 #未成年人 #聊天机器人 #科技责任

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。