如果你曾向ChatGPT提问,却得到一个读起来通顺但完全错误的答案,那么你就遭遇了“幻觉”。有些幻觉可能十分滑稽(比如声称莱特兄弟发明了原子弹),有些则令人不安(例如医疗信息被篡改时)。

这种现象之所以被称为幻觉,是因为人工智能并不知道自己在编造内容——它对答案充满自信,表现得如同正常输出。与人类幻觉不同,我们很难判断AI何时会产生幻觉。若想识别这些现象,你需要了解关于AI幻觉的一些基本知识。
AI幻觉的定义
当AI模型生成事实上错误、逻辑矛盾或完全虚构的内容时,即产生AI幻觉。这类现象主要出现在生成式AI模型中,特别是像ChatGPT这样的大语言模型。
与软件编程错误不同,AI幻觉并非程序员失误所致,而是源于模型通过学习概率进行的生成。以下是识别不同类型幻觉的方法:
事实性错误
当AI模型输出错误或未经证实的信息时,就会产生事实性幻觉。例如声称“巴黎的埃菲尔铁塔建于1999年”,而实际建造时间为1887年至1889年。这类幻觉源于模型训练数据的局限性或事实核查能力的不足。
在法律、教育和医疗等依赖准确信息的领域,这类幻觉尤其危险。
答非所问
若答案与问题严重偏离或破坏对话逻辑连贯性,则属于语境幻觉。例如提问“如何炖煮肉汤?”却得到回答:“炖汤很美味,太阳系有九大行星。”这种输出语言结构正确,但与主题完全无关。
当模型无法保持先前对话语境时,就会产生此类幻觉。
逻辑谬误
当答案逻辑混乱时,说明AI正在产生逻辑幻觉。例如陈述“如果芭芭拉有三只猫又获得两只,她现在有六只猫”——显然在基础数学推理上出现谬误。这对于需要解决问题的任务可能造成严重困扰。
跨模态失调
这类被称为多模态幻觉的现象出现在处理多种媒体类型的AI模型中。典型表现如文字描述与图像内容不匹配:当要求“生成戴太阳镜的猴子图片”时,却产生未佩戴太阳镜的猴子图像。在DALL·E等图像生成模型中常见此类问题。
幻觉检测方法
幻觉会侵蚀信任,在某些情境下可能造成严重危害——例如当专业人士依赖AI获取准确事实时。
虽然无法完全规避幻觉,但可以通过以下方法进行核查:
人工事实核查
使用搜索引擎和可信参考资料核验AI提供的具体主张、名称、日期或数字。若AI引用来源,务必尝试查证——伪造或不准确的来源链接是幻觉的常见标志。
追问细节
要求AI对其提供的特定细节进行阐释。如果它显得吃力或提出新的矛盾事实,则原始内容可能属于虚构。
要求论证依据
询问“能否提供信息来源”或“对此答案的置信度如何”。正常的模型会指向训练数据或搜索结果,而正在产生幻觉的模型往往难以自圆其说,甚至编造看似合理的虚假来源。
交叉模型比对
向不同AI模型提出完全相同的问题。若答案差异显著,则表明至少有一个模型存在错误。



