华硕RTX5090北美首降,旗舰显卡回归官方定价
阅读全文

锤刻创思寰宇网
加州大学旧金山分校的精神科医生基思·坂田(Keith Sakata)曾就日益增多的“AI精神错乱”案例发出警告,如今他分享了避免此类心理健康问题的建议。本周早些时候,坂田医生在社交媒体透露,他已接诊了十几名因使用AI诱发精神错乱而住院的患者。他强调,虽然AI并非直接导致精神障碍的元凶,但在扭曲认知反馈循环中起到了关键作用——这正是精神错乱的根源。
“AI精神错乱”虽非官方医学术语,特指聊天机器人使用者忘记对方是软件模型而非真人的异常状态。2025年因此发生过悲剧事件:佛罗里达州一名男子误以为OpenAI员工杀死了他的AI女友朱丽叶,最终在警方介入下自杀身亡。
坂田医生在发文中警示,他正目睹越来越多的人因AI脱离现实而住院。他指出,AI使用会阻碍易感人群通过现实检验更新信念系统,从而形成自我强化的病态模式,使使用者无法意识到对话的聊天机器人并不真实存在。
近期接受TBPN专访时,坂田医生提出了AI开发者避免此类后果的方法,并分享了保护易感人群维持现实感知的途径。对于如何帮助可能陷入AI负面影响的个人或其亲友,他建议:“现阶段最重要的是保持人际联结。人际关系就像心理健康的免疫系统——既能提升幸福感,又能在出现问题时及时干预。若发现自身或家人产生怪异念头、偏执观念或安全疑虑,请立即拨打911或988求助。同时,让更多人进入患者的生活圈,在其与AI之间建立人际缓冲带,就能重塑健康的反馈循环机制。”
随着AI应用普及,安全问题日益凸显。多份报告显示,Meta公司在涉及未成年人的AI聊天机器人行为规范上监管松懈。路透社最新调查指出,该公司的儿童咨询应答指南存在漏洞,在被质询后方才更新规则。