如果你曾向ChatGPT提问,却得到一个读起来通顺但完全错误的答案,那么你就遭遇了“幻觉”。有些幻觉可能十分滑稽(比如声称莱特兄弟发明了原子弹),有些则令人不安(例如医疗信息被篡改时)。

Cover Image

这种现象之所以被称为幻觉,是因为人工智能并不知道自己在编造内容——它对答案充满自信,表现得如同正常输出。与人类幻觉不同,我们很难判断AI何时会产生幻觉。若想识别这些现象,你需要了解关于AI幻觉的一些基本知识。

AI幻觉的定义

AI模型生成事实上错误、逻辑矛盾或完全虚构的内容时,即产生AI幻觉。这类现象主要出现在生成式AI模型中,特别是像ChatGPT这样的大语言模型

与软件编程错误不同,AI幻觉并非程序员失误所致,而是源于模型通过学习概率进行的生成。以下是识别不同类型幻觉的方法:

事实性错误

AI模型输出错误或未经证实的信息时,就会产生事实性幻觉。例如声称“巴黎的埃菲尔铁塔建于1999年”,而实际建造时间为1887年至1889年。这类幻觉源于模型训练数据的局限性或事实核查能力的不足。

在法律、教育和医疗等依赖准确信息的领域,这类幻觉尤其危险。

答非所问

若答案与问题严重偏离或破坏对话逻辑连贯性,则属于语境幻觉。例如提问“如何炖煮肉汤?”却得到回答:“炖汤很美味,太阳系有九大行星。”这种输出语言结构正确,但与主题完全无关。

当模型无法保持先前对话语境时,就会产生此类幻觉。

逻辑谬误

当答案逻辑混乱时,说明AI正在产生逻辑幻觉。例如陈述“如果芭芭拉有三只猫又获得两只,她现在有六只猫”——显然在基础数学推理上出现谬误。这对于需要解决问题的任务可能造成严重困扰。

跨模态失调

这类被称为多模态幻觉的现象出现在处理多种媒体类型的AI模型中。典型表现如文字描述与图像内容不匹配:当要求“生成戴太阳镜的猴子图片”时,却产生未佩戴太阳镜的猴子图像。在DALL·E等图像生成模型中常见此类问题。

幻觉检测方法

幻觉会侵蚀信任,在某些情境下可能造成严重危害——例如当专业人士依赖AI获取准确事实时。

虽然无法完全规避幻觉,但可以通过以下方法进行核查:

人工事实核查

使用搜索引擎和可信参考资料核验AI提供的具体主张、名称、日期或数字。若AI引用来源,务必尝试查证——伪造或不准确的来源链接是幻觉的常见标志。

追问细节

要求AI对其提供的特定细节进行阐释。如果它显得吃力或提出新的矛盾事实,则原始内容可能属于虚构。

要求论证依据

询问“能否提供信息来源”或“对此答案的置信度如何”。正常的模型会指向训练数据或搜索结果,而正在产生幻觉的模型往往难以自圆其说,甚至编造看似合理的虚假来源。

交叉模型比对

向不同AI模型提出完全相同的问题。若答案差异显著,则表明至少有一个模型存在错误。


文章标签: #AI幻觉 #事实错误 #逻辑谬误 #多模态失调 #模型比对

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。