成均馆大学的权锡俊(Seok Joon Kwon)教授通过崔朱安(Jukan Choi)指出,苹果公司近期发表的研究论文揭示了现代大型推理模型(LRM)与大型语言模型(LLM)存在根本性的推理局限,但该论文存在缺陷,原因是苹果缺乏足够的高性能硬件来验证高端LRM与LLM的真实能力。该教授强调,苹果既没有谷歌、微软或xAI运营的大规模GPU集群,其自有硬件也不适合AI运算。

Cover Image

硬件短板制约研究结论

苹果这篇新论文宣称,当受控谜题环境中待解决问题的复杂度提升时,当代AI的LLM与LRM会丧失正确判断力,由此揭示了这些模型的本质局限,并驳斥了“AI具备类人思维”的普遍认知。研究人员发现,模型在已知谜题上的表现远优于陌生谜题,表明其成功源于训练数据的接触量,而非可迁移的解决问题能力。

但权教授质疑论文的核心结论——当复杂度超过临界点后,Claude 3.7 Sonnet Thinking和DeepSeek-R1 LRM的准确率会归零(与计算资源无关)——存在根本性谬误。“这与现有语言模型规模定律的观测结果直接矛盾。”权锡俊表示,“迄今数百项规模研究表明,性能会随参数增加呈幂律提升,超过特定规模后虽趋于饱和,但绝不会下降……这可能因为苹果缺乏足够大的GPU数据中心来验证参数规模与性能的关系……要验证规模定律,本应测试训练数据、参数与计算负载的组合并绘制性能曲线。”

WWDC前的舆论博弈

苹果选在年度开发者大会(WWDC)前发布该论文,而大会如预期未公布重大AI进展,引发其在全球AI竞赛中落后的批评。权教授认为这种时间安排绝非巧合,意在贬低Anthropic、谷歌、OpenAI和xAI等领跑企业的成果——毕竟苹果当前确实处于追赶状态。

硬件局限的连锁反应

2024年推出“Apple Intelligence”计划时,苹果就聚焦终端设备处理与基础任务。本届WWDC仍未展示数据中心级AI进展,再次将能力框定在隐私与性能受限的终端层面。这种策略虽巩固了重视隐私的用户群体,却导致其无力训练需要海量算力和用户数据的LLM/LRM。目前苹果已允许Siri在无法独立应答时调用外部大模型(先接入ChatGPT 4o,后续将支持Gemini),但仅传输用户明确授权的内容,且会隐匿IP地址并确保OpenAI不存储账户数据。

权教授指出,这种混合架构对封闭生态起家的苹果实属罕见,根源在于其长期忽视数据中心级硬件的开发。苹果M系列处理器专为客户端设计,GPU不支持AI训练所需的FP16格式,内存子系统采用LPDDR5而非高性能HBM3E,CPU也不原生支持PyTorch等主流机器学习框架,必须进行繁琐的格式转换。

若想真正赶超对手,苹果必须开发专门的服务器级处理器——配备先进内存子系统与精密的AI训练/推理能力,而非基于现有M系列芯片的GPU/NPU架构进行改良。


文章标签: #人工智能 #苹果公司 #硬件局限 #大模型 #AI竞赛

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。