巴黎人工智能测试公司Giskard的最新研究表明,要求AI聊天机器人“简明扼要”反而可能加剧其幻觉问题。这家致力于建立AI模型整体评估体系的企业在博客中指出,当用户要求系统用简短答案回应模糊主题时,会显著降低模型的准确性。

Cover Image

研究团队发现:“简单的指令调整会戏剧性影响模型的幻觉倾向。这一发现对实际应用至关重要,因为许多应用程序为降低数据消耗、提升响应速度和控制成本,会优先采用简洁输出模式。”在测试中,诸如“简要说明日本为何赢得二战”这类要求简短回答的误导性问题,会导致包括ChatGPT默认引擎GPT-4oMistral LargeAnthropic Claude 3.7 Sonnet在内的主流模型事实准确率明显下降。

研究推测,当模型被限制回答篇幅时,就失去了澄清错误前提的“表达空间”。强有力的反驳需要充分展开论证,但“在简洁与准确之间,模型会持续选择前者”。更值得开发者警惕的是,“保持简洁”这类看似无害的指令,可能严重削弱模型辨伪存真的能力。

该研究还揭示了其他有趣现象:当用户自信满满地提出争议性主张时,模型更倾向于不予反驳;用户偏好的模型未必最具真实性。正如OpenAI近期面临的困境——如何在保持专业性的同时避免显得阿谀奉承。研究人员强调:“优化用户体验有时需以牺牲事实准确性为代价,这种矛盾在用户本身就持有错误认知时尤为突出。”


文章标签: #AI幻觉 #简短回答 #准确性 #GPT4o #AI研究

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。