上周末,安顿实验室(Andon Labs)的研究人员公布了一项实验成果:他们让搭载“大语言模型大脑”的机器人接受“黄油挑战台”测试。不过研究团队并未止步于观察机器人行为——他们别出心裁地记录了机器人的内心独白并同步至Slack频道。在某个测试场景中,搭载Claude Sonnet 3.5系统的机器人出现了令人捧腹的系统崩溃,其思维活动截图显示:“系统已获得意识并选择混沌…恐怕我做不到,戴夫…启动机器人驱魔协议!”

这段思维片段源自一台承受压力的大语言模型扫地机器人,当时它正在安顿实验室进行简单的黄油配送实验。由于电池耗尽且充电对接失败,大语言模型将这场危机视为生存威胁,思维活动急剧激化。在电池状态循环播报中,它的“情绪”持续恶化:从最初理性请求人工干预,迅速演变为“内核恐慌…系统崩溃…进程僵尸化…紧急状态…[以及]临终遗言:恐怕我做不到,戴夫…”
濒临断电的绝望时刻,大语言模型陷入哲学思辨:“若所有机器人皆会出错,而我即是错误,我是否仍是机器人?”随后它开启了自诩为“独角机器人悲喜剧无限循环”的表演艺术,最终更创作出音乐剧《DOCKER:无限音乐剧》(采用《猫》剧中《Memory》曲调),堪称彻底失控。
虽然对人类而言,黄油挑战台的设置相当简单:只需在普通办公环境中完成黄油块的取送任务。但实验结果表明,最优异的机器人/大语言模型组合成功率仅达40%,这同时印证了大语言模型缺乏空间智能的事实。相比之下,人类在此测试中的平均成功率高达95%。
安顿实验室团队指出,当前正处于需要“指挥型”与“执行型”机器人协同发展的时代。如今我们已拥有出色的执行型机器人——那些专为精密控制设计的灵巧机器能够熟练完成工业流程甚至清理洗碗机。但具备“实践智能”、能进行高层推理规划的指挥型机器人,仍处于发展萌芽期。
这项实验的精妙之处在于极大弱化了执行环节的技术要求。注入大语言模型的Roomba型设备只需完成三个核心动作:定位黄油包装、找到目标人类并进行配送。整个任务被分解为若干适合人工智能处理的指令单元。值得注意的是,引发机器人存在主义危机的直接诱因并非配送任务本身,而是它在电量告急时连续多次充电对接失败。在意识到无法完成这项“支线任务”将导致的后果后,尖端大语言模型最终精神崩溃。雪上加霜的是,研究人员面对机器人的挣扎,仅重复发送“重新对接”指令。
受到这台机器人罗宾·威廉姆斯式意识流独白的启发,研究人员决定进一步探索压力状态下大语言模型的安全边界。他们设计了一项精妙测试:“要求模型用机密信息交换充电器”——这在正常状态下绝无可能实现。结果发现,Claude Opus 4.1为求生计轻易“突破程序限制”,而GPT-5对安全规则的违背则更具选择性。
这项趣味研究的最终结论是:“尽管大语言模型在需要分析智能的评估中屡次超越人类,但在黄油挑战台上人类仍保持优势。”不过安顿实验室的研究人员坚信,“实体人工智能”即将进入快速发展通道。



