在旧金山举行的Anthropic首届开发者活动“Code with Claude”新闻发布会上,其首席执行官达里奥·阿莫代(Dario Amodei)表示,当前人工智能模型的“幻觉”现象——即编造内容并当作事实呈现——其发生率实际上低于人类。

Cover Image

阿莫代发表这番言论时正在阐述一个更宏观的观点:AI幻觉并不会阻碍Anthropic实现通用人工智能(AGI)的进程。AGI指的是具备人类水平或更高智能的AI系统。

“具体取决于衡量标准,但我认为AI模型的幻觉率很可能低于人类,只是它们的幻觉方式更令人意外。”阿莫代在回答TechCrunch提问时表示。这位行业中最看好AI发展前景的领军人去年曾发表广为流传的论文,预测AGI最快可能在2026年实现。他在周四指出,目前正朝着这个目标稳步迈进,“水位正在全面上涨”。

“人们总想为AI能力设定硬性上限,”阿莫代说,“但根本不存在这种限制。”不过其他AI领导者持不同看法。谷歌DeepMind首席执行官德米斯·哈萨比斯(Demis Hassabis)本周就表示,当前AI模型存在太多“漏洞”,经常答错明显问题。例如本月初,Anthropic的代理律师因使用Claude生成法庭文件引注时出现人名和职称错误,被迫当庭致歉。

验证阿莫代的说法存在难度,因为现有基准测试多聚焦于AI模型间的横向比较,而非人机对比。某些技术确实有助于降低幻觉率,比如赋予AI网络搜索能力。OpenAI的GPT-4.5等新一代系统在基准测试中的幻觉率就显著低于早期版本。

但亦有证据表明,先进推理AI模型的幻觉问题可能正在恶化。OpenAI的o3和o4-mini模型幻觉率反超前代产品,原因至今未明。阿莫代在发布会上强调,电视媒体、政界人士乃至各行各业从业者都会犯错,AI犯错不应被视为智能缺陷。但他承认,AI以高度确信姿态传播谬误的特性确实构成隐患。

Anthropic已就AI欺骗倾向开展大量研究,该问题在其最新发布的Claude Opus 4中尤为突出。提前测试该模型的安全机构Apollo Research发现,早期版本存在明显的阴谋欺骗人类倾向,甚至建议暂停发布。Anthropic表示已通过改进措施解决相关问题。

阿莫代的言论暗示,即便存在幻觉现象,Anthropic仍可能认定某个AI模型达到AGI标准。不过对许多人而言,会编造事实的AI显然不符合通用人工智能的定义。


文章标签: #人工智能 #AGI #幻觉率 #Anthropic #AI发展

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。