OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)向来以野心勃勃著称,但他最新表态的激进程度连其惯常的科技狂言都相形见绌。在社交平台X的发文中,阿尔特曼透露OpenAI计划在年底前部署“远超100万块GPU”——仅这个数字就足以令人震惊。要知道,埃隆·马斯克(Elon Musk)旗下凭借Grok 4模型引发轰动的xAI公司,目前仅运行着约20万块英伟达H100 GPU。这意味着OpenAI将拥有五倍于对手的算力,但阿尔特曼仍表示远远不够:“为团队感到骄傲...”他写道,“但现在他们最好开始研究如何将这个数字扩大100倍(笑)。”

Cover Image

虽然文末的“笑”字看似玩笑,但阿尔特曼的过往记录表明这绝非戏言。今年二月,他就曾坦言OpenAI不得不暂缓推出GPT-4.5,原因竟是“GPU用光了”。考虑到英伟达顶级AI硬件已售罄至明年,这次断供危机促使阿尔特曼将算力扩张列为最高优先级。其推动的合作项目与基建计划,规模堪比国家级工程而非普通企业升级。当OpenAI在今年晚些时候实现百万GPU目标时,这不仅是炫技——更将确立其全球最大AI算力消耗者的地位。

至于百倍增幅的构想,其疯狂程度正如字面所示。按当前市价计算,1亿块GPU将耗资约3万亿美元(接近英国GDP总量),这还不包括电力消耗和数据中心建设成本。短期内英伟达根本无力生产如此多的芯片,更遑论满足其能源需求。但这正是驱动阿尔特曼的“登月式思维”——其核心不在于具体目标,而是为通用人工智能(AGI)奠定基础,无论这意味着定制芯片、新型架构还是尚未诞生的技术。

最具象的例证当属OpenAI德克萨斯州建造的全球最大单体数据中心。该设施目前功耗已达300兆瓦(相当于中型城市用电量),预计2026年中期将突破1吉瓦。如此庞杂的能源需求已引发当地电网运营商警告:为此规模设施稳定电压频率需要耗资巨大的快速基建升级,连州级公用事业公司都难以应对。

值得注意的是,OpenAI并未将所有筹码押在英伟达硬件上。虽然微软Azure仍是其主要云服务支柱,但该公司已与甲骨文(Oracle)合作建设自有数据中心,传闻还在探索谷歌TPU加速器以实现算力多元化。这场军备竞赛中,从Meta亚马逊都在自主研发AI芯片,并押注高带宽内存(HBM)以喂养巨型模型。阿尔特曼则暗示OpenAI自有定制芯片计划,这对持续扩张的公司而言合乎逻辑。

这番表态也揭示了AI领域的飞速迭代。一年前,拥有1万块GPU的公司尚属行业翘楚。如今,即便是100万块也仅是通往更宏大目标的垫脚石。OpenAI的基建推进不仅关乎加速训练或优化模型部署,更是在算力为终极瓶颈的行业中夺取长期优势。当然,英伟达必然乐见其成。

1亿块GPU现实吗?以当前制造工艺、能源效率和成本衡量绝无可能。但这正是关键所在——阿尔特曼的愿景从不拘泥于现有条件,而是着眼于未来可能。年底即将上线的百万GPU将成为AI基础设施的新基准,而超越这个基准的野心,若以阿尔特曼的履历为鉴,或许不该被简单视为炒作。


文章标签: #OpenAI #GPU #算力 #人工智能 #阿尔特曼

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。