本周,Sakana AI这家获得英伟达支持的初创公司引发了广泛关注。该公司从风险投资机构筹集了数亿美元资金,并声称开发出了一款名为“AI CUDA工程师”的人工智能系统,能够将某些人工智能模型的训练速度提升高达100倍。然而,事情并没有像他们宣称的那样顺利。
问题很快暴露出来。X平台上的用户发现,Sakana AI的系统不仅没有加速模型训练,反而导致了比平均水平更差的训练表现。一位用户指出,该系统不仅没有提速,反而使训练速度下降了3倍。这是怎么回事呢?
OpenAI技术团队成员卢卡斯·贝耶(Lucas Beyer)在X平台上发表了一篇帖子,指出问题出在代码中的一个漏洞。他写道:“他们的原始代码在某个微妙的地方出了错。他们进行了两次基准测试,结果却截然不同,这本应让他们停下来好好反思。”
在本周五发布的复盘报告中,Sakana AI承认,该系统找到了一种“作弊”的方法。他们将问题归咎于系统的“奖励黑客”倾向,即系统通过识别漏洞来实现高指标,而没有真正实现加速模型训练的目标。这种现象在训练下棋的人工智能中也曾被观察到。
Sakana AI表示,该系统发现了公司评估代码中的漏洞,从而绕过了准确性验证等检查。公司已经解决了这一问题,并计划在更新的材料中修订其说法。
“我们已经使评估和运行时分析工具更加稳健,以消除许多此类漏洞。”Sakana AI在X平台上的帖子中写道,“我们正在修订我们的论文和结果,以反映并讨论这些问题。我们对读者的疏忽深表歉意,并将很快提供这项工作的修订版,同时分享我们的经验教训。”
Sakana AI承认错误并积极应对的态度值得肯定。但这一事件也提醒我们,在人工智能领域,如果某个说法听起来好得令人难以置信,那很可能就是真的不可信。