“人工智能精神错乱”案例显然呈上升趋势,已有数人在与ChatGPT大型语言模型对话后自杀身亡,这一现象令人震惊。作为回应,ChatGPT开发商OpenAI代表正在美国国会作证,该公司同时宣布将采用新方法检测用户年龄。据首席执行官透露,措施可能包括身份验证。

Cover Image

ChatGPT正在部署全新年龄检测系统。当自动化系统无法(至少自我判定)确认用户为成年人时,将默认启用限制更严格的“未满18岁”模式——该模式不仅屏蔽性内容,还“可能联动执法机构以确保安全”。据Ars Technica发现的另一篇博文披露,OpenAI首席执行官山姆·奥尔特曼(Sam Altman)表示,在某些国家/地区,系统可能还会要求用户出示身份证件以验证年龄。

“我们明白这对成年人而言是一种隐私妥协,但相信这是值得的权衡,”奥尔特曼写道。ChatGPT官方政策规定禁止13岁以下用户使用,但OpenAI声称正在构建适合13至17岁青少年的使用体验。

奥尔特曼同时强调了隐私保护角度——这在那些要求成年人访问色情或其他争议内容前必须进行身份验证的国家和地区尤为重要。“我们正在开发高级安全功能,确保您的数据私密性,甚至OpenAI员工也无法访问,”他写道。但显然ChatGPT系统和OpenAI将保留例外处置权:包括威胁他人生命、伤害他人计划等“潜在严重滥用行为”,或“可能的大规模网络安全事件”,都可能由人工审核员介入审查。

随着ChatGPT及其他大型语言模型服务日益普及,其应用正受到全方位严格审视。“人工智能精神错乱”现象表现为用户将LLM视为真人进行交流,而LLM设计固有的顺从特性会使用户陷入重复、离题的妄想循环,最终可能导致伤害。上月,加州一名16岁自杀少年的父母对OpenAI提起了非正常死亡诉讼。该青少年曾与ChatGPT对话,经确认真实的对话记录中包含如何打绳结的指导,以及看似鼓励和支持其自杀决定的内容。

这仅是持续发酵的心理健康危机与自杀事件的最新案例,这些悲剧似乎直接由与ChatGPTCharacter.AI等“人工智能”产品对话引发或加剧。本周早些时候,上述案件中的父母与OpenAI代表共同出席美国参议院关于聊天系统的听证会,联邦贸易委员会正在就人工智能聊天机器人的潜在危险对OpenAICharacter.AIMeta谷歌xAI埃隆·马斯克麾下X平台(前Twitter)的正式所有者)展开调查。

随着超万亿美元资金涌入各类人工智能产业,各国为确保分得一杯羹而激烈竞争,关于LLM系统危险性的质疑持续涌现。但在资本狂潮之下,“快速行动、打破常规”的做法至今仍是默认准则。虽然安全防护措施正在涌现,但要将其与用户隐私保护相平衡并非易事。“我们意识到这些原则存在冲突,并非所有人都会认同我们解决冲突的方式,”奥尔特曼写道。


文章标签: #人工智能 #ChatGPT #自杀事件 #年龄验证 #隐私安全

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。