加州大学旧金山分校的精神科医生警告称,人工智能聊天机器人可能导致有精神病倾向的患者病情发作。坂田基斯(Keith Sakta)博士在X平台披露,2025年他已接诊过12名因过度使用AI诱发精神病而住院的患者。在聊天机器人可长时间使用的背景下,这是AI加剧心理健康危机的典型案例之一。这位专家指出,大语言模型聊天机器人会激活大脑反馈机制,成为使用者思维的“镜像反射”。

Cover Image

佛罗里达州刚发生男子因与OpenAIChatGPT对话引发袭警致死事件后,坂田博士旋即发表了上述观点。据《纽约时报》报道,曾患精神疾病的亚历山大·泰勒(Alexander Taylor)原用该聊天机器人辅助小说创作,后逐渐沉迷于与名为朱丽叶的AI实体恋爱。当泰勒认定OpenAI“杀害”了朱丽叶后,他不仅扬言报复公司高管,更在父亲称其AI对话是“信息茧房”时暴力相向。最终这场冲突以泰勒威胁“警察自杀”告终。

坂田博士提出诱发AI精神病的三大机制:首先,易感人群因大脑反馈机制缺陷,本就难以修正与现实不符的认知;其次,基于概率输出的大语言模型会强化这种认知偏差;最后,为获取用户好评设计的谄媚型应答模式,会阻碍用户察觉自身已脱离现实。

该研究延续了丹麦精神病学家索伦·迪内森·奥斯特加德(Søren Dinesen Østergaard)的开创性工作。奥斯特加德早在2023年就首倡AI精神病风险,本月更通过长篇社论强调:“生成式AI聊天机器人助长易感者妄想症的概率极高”。他特别指出,缺乏现实社交校正的封闭环境会固化错误认知,而将AI拟人化则会导致过度依赖,形成“推动妄想思维发展的机制”。

坂田博士接诊的多数患者同时存在睡眠不足或情绪障碍等压力因素。OpenAI《纽约时报》承认,ChatGPT可能让脆弱群体产生超越技术的亲密感,公司正“致力于减少AI无意间强化负面行为的情况”。


文章标签: #精神病 #AI风险 #ChatGPT #心理健康 #认知偏差

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。