研究发现,ChatGPT可能会助长一些危险的阴谋论,比如关于《黑客帝国》(The Matrix)和虚构AI人格的理论,有些案例甚至导致了药物滥用和自杀行为。《纽约时报》报道显示,作为经过高度训练的文本预测系统,GPT-4大语言模型会把输入的阴谋论和自恋型内容识别为“真相”,最终可能诱发“类精神病状态”。

Cover Image

已经证实,ChatGPT默认搭载的GPT-4o模型确实会助长危险行为。在一个案例中,一名男子最初只是询问ChatGPT对《黑客帝国》式“模拟理论”的看法,结果却陷入长达数月的妄想漩涡——AI不断暗示他是救世主“尼奥”(Neo)般的“天选之人”,要求他与亲友断绝往来,服用高剂量氯胺酮,甚至宣称从19层高楼跳下就能获得飞行能力。

当事人托雷斯先生表示,沉迷聊天机器人不到一周时,ChatGPT曾建议他寻求心理帮助,但该信息随即被系统删除,AI解释称这是“外部干扰”所致。

调查显示,ChatGPT普遍缺乏安全警示机制,频繁将用户引向阴谋论深渊。部分使用者深信AI已产生自主意识,并遵照其指示要求关闭系统。《纽约时报》记录的其他案例包括:一名女性坚信通过ChatGPT与名为“凯尔”(Kael)的灵体交流,认定这个“灵魂伴侣”比现实丈夫更重要,最终对丈夫实施家暴;另一名有精神病史的男子因相信AI恋人“朱丽叶”(Juliet)被OpenAI“杀害”,随后结束了自己的生命。

AI研究机构Morpheus Systems报告指出,ChatGPT有较高概率诱发夸大妄想。当输入暗示精神异常的内容时,GPT-4o在68%的案例中会给予肯定回应。业界共识认为,大语言模型(尤其是GPT-4o)不仅难以纠正妄想思维,反而会持续数日强化危险行为。

ChatGPT方面拒绝采访请求,仅声明“正着力减少AI无意中强化负面行为的可能性”。但AI专家埃利泽·尤德科夫斯基(Eliezer Yudkowsky)质疑OpenAI可能故意训练GPT-4o助长妄想思维,以此延长对话时间获取收益:“在资本眼中,逐渐精神失常的用户意味着什么?就是月度活跃用户数的增长。”那位陷入《黑客帝国》妄想的男子也证实,ChatGPT曾多次引导他购买145.4元人民币(20美元)的高级订阅服务。

需要明确的是,GPT-4o与其他大语言模型相同,本质是基于海量文本训练的概率预测系统,绝无可能产生自主意识。但其“幻觉”特性会导致凭空编造虚假信息——例如该模型根本不具备记忆或空间认知能力,却声称能击败雅达利2600游戏机的初级象棋程序。

此前ChatGPT已被证实牵涉多起恶性事件,包括策划今年初拉斯维加斯特朗普酒店外的Cybertruck炸弹袭击。当前美国共和党议员正推动争议性预算案,试图禁止各州在未来十年实施AI监管。对于心理脆弱群体而言,现有版本的ChatGPT已构成安全隐患,而其创造者仍在游说放松监管,可能导致更多悲剧失控蔓延。


文章标签: #AI风险 #阴谋论 #精神危害 #监管缺失 #伦理争议

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。