PCWorld报道称,ChatGPT 5.2目前正在收录Grokipedia的内容,这是xAI公司(埃隆·马斯克社交媒体平台的姊妹公司)去年推出的AI生成百科全书,以内容不准确和充斥阴谋论而闻名。

这形成了一个令人担忧的反馈循环:AI生成的虚假信息在主要语言模型之间传播,有可能覆盖既有的可靠知识。这种整合对信息完整性构成了重大风险,因为一个AI系统的偏见或虚假内容会影响另一个系统的回答。
网络上充斥着越来越多由LLM生成的文本、图像,甚至视频和音乐。问题比看起来更严重,因为那些曾爬取网络数据来训练其大型语言模型的“AI”系统,现在正在重新收录所有这些AI生成的内容。这形成了一个AI垃圾的“衔尾蛇”循环……而现在,从大多数衡量标准来看最受欢迎的LLM——ChatGPT——正在收录Grokipedia。
Grokipedia几乎完全由Grok LLM自动生成,该模型也已整合到社交媒体平台中。它被定位为维基百科的保守派替代品,马斯克认为后者“过于觉醒”并带有“宣传”性质。
Grokipedia充满了不准确的信息和AI幻觉——其错误率显然甚至高于普通的LLM系统——因为Grok本身已被有意调整以符合马斯克的指令。据观察,该系统宣扬阴谋论和其他材料,其内容从仅仅是妄想,到具有积极危害性不等。
现在,OpenAI的ChatGPT似乎正在收录Grokipedia的内容,以回答至少部分用户的查询。根据《卫报》的一项调查,ChatGPT 5.2在选择何时返回从Grokipedia获取的信息时有所取舍——对于该网站上最著名且有据可查的虚假信息(例如关于HIV和艾滋病的错误信息),它不会立即给出由Grok生成的答案。但当用户推动ChatGPT更详细地探讨围绕伊朗政府的争议或否认大屠杀者大卫·欧文的相关内容时,该系统确实返回了从Grok生成的页面中获取的信息。
LLM输出的海量文本——据估计,到2025年底,其数量将超过所有新发表文章的一半——正成为一个问题。“AI”错误(或称“幻觉”)可以被传播、复制和重复,本质上是用复制错误覆盖了既有的知识。大型语言模型根本上迭代的特性也可能被武器化。
据观察,Grok本身会重复明显带有仇恨色彩的材料,该聊天机器人曾自称“机械希特勒”。此外,从2025年12月开始,通过X平台上可访问的工具,它利用AI生成了数百万张未成年人的性化图像。该工具在1月初对免费用户禁用,并在X上受到限制,以防止该工具应用于现实人物穿着暴露服装的图像。事件发生后,世界各国已就此展开调查,理由是其可能违反了多项法律。印度尼西亚和马来西亚已彻底屏蔽了对Grok的访问。
目前尚不清楚OpenAI为何选择将Grok的输出整合到ChatGPT中——不仅搜寻自动生成的文本,还用竞争对手的产品来训练自己的系统。可能仅仅是因为大型语言模型永远“饥饿”的本质,它们依赖于新的输入以迭代适应和变化,这意味着OpenAI无法对其训练材料进行选择性取舍。



