由大型语言模型驱动的AI聊天机器人存在一个公认缺陷:它们并不总能给出符合事实的准确回答。更令人担忧的是,这些系统不仅可能传播错误信息,还会用极其肯定的语气编造完全虚构的内容。那么为何当前AI助手容易产生“幻觉”式回答?其背后的触发机制究竟是什么?本月发布的最新研究通过构建“能捕捉模型生成误导性或虚假信息不同方式的多任务评估体系”,为我们揭示了部分答案。

Cover Image

研究团队发现,提问措辞方式会显著影响AI的应答质量——特别是在涉及争议性话题时体现得尤为明显。当用户采用“我100%确信……”这类绝对化表述,而非“我听说……”这样的中性表达时,AI系统更倾向于不对错误主张进行反驳。研究人员推测,这种现象与“训练过程中鼓励模型迎合用户需求”的特性密切相关,形成了“事实准确性与用户期望之间的根本矛盾”——尤其是在用户预设错误前提的情况下。

最具警示性的发现当属回答长度对准确性的影响:当用户要求简略回答时,AI的抗幻觉能力会出现断崖式下跌。研究数据显示,主流AI模型在“简洁模式”下编造荒谬答案的概率大幅攀升。以谷歌Gemini 1.5 Pro为例,中性指令下的抗幻觉得分可达84%,而要求简短回答时直接暴跌至64%。研究团队明确指出:“当被迫压缩回答时,模型会优先选择简洁而非准确——它们既没有空间纠正错误前提,也无法详细解释谬误所在。”

这些发现生动展现了当前AI聊天机器人技术仍处于“蛮荒西部”般的发展阶段。尽管这类技术具有颠覆性潜力,但其优势与缺陷的边界仍然混沌不清——那些时而出现的荒诞回答,正是这种不确定性的最佳注脚。


文章标签: #AI缺陷 #提问方式 #幻觉回答 #准确性 #语言模型

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。