ChatGPT为硅谷带来新的大爆炸以来,人工智能始终是科技界的焦点。当前赛道的主要参与者都在竞相构建超高密度的GPU集群以实现人工智能业务的快速扩张。埃隆·马斯克(Elon Musk)便是其中之一,他同时拥有X平台及其同名公司xAI,似乎决心要超越萨姆·奥尔特曼(Sam Altman)及其领导的OpenAI——有趣的是,马斯克本人正是OpenAI的联合创始人之一。上个月,这位知名投资者宣称xAI将在未来五年内部署5000万块等效于H100的GPU,并于昨日重申了这一目标。

Cover Image

需要特别注意的是,马斯克特意强调“等效H100的AI算力”,暗示其规划的5000万块GPU将提供更优(即更高效)的性能。目前英伟达(Nvidia)基于Blackwell架构的B200 GPU是市场上能效最高的人工智能加速器,但马斯克的表述可能意味着xAI未来将摆脱对英伟达的依赖。这或许预示着其将转向AMD,或与博通(Broadcom)等合作伙伴共同开发自研加速器——后者已具备为其他企业设计定制ASIC芯片的能力。

昨日的表态是对该目标的再次强化,但更引人瞩目的是,马斯克以“最终达到数十亿规模”暗示了尚未被行业设想的算力级别,这意味着xAI终有一天将拥有媲美数十亿块H100 GPU的算力。当然,在人工智能已持续加剧环境风险、大型数据中心不断影响当地社区的背景下,这一愿景似乎与现实存在脱节。此外,散热和电力需求也是必须考虑的制约因素。

与此同时,马斯克的竞争对手萨姆·奥尔特曼则宣称要在年底前部署超过100万块H100 GPU,并规划未来将1亿块GPU投入运营——这一计划所需的资金规模甚至相当于英国全年GDP。相较之下,目前xAI仅运行着约20万块H200 GPU,距离马斯克设定的年均1000万块(五年5000万块)目标仍有巨大差距。

Meta同样是该领域的重要竞争者,其首席执行官马克·扎克伯格(Mark Zuckerberg)抱有相似愿景。他正在建设一个面积接近曼哈顿的“Hyperion”数据中心,其功耗将高达5吉瓦,几乎与纽约市的基础电力负荷持平。在算力层面,扎克伯格也承诺在今年底突破100万块AI GPU的部署规模,但更重要的是,该公司即将完成自研芯片开发,从而终结对外部制造商的依赖。

与此同时,xAI的旧版模型Grok 2.5已宣布开源。X平台在升级至Grok 3前曾使用该模型,而马斯克称Grok 3也将在6个月后开源。至于陷入争议漩涡、目前口碑欠佳的Grok 4,其命运仍悬而未决。尽管别有用心者可能渴望获取这项技术,我们仍期望马斯克投入数千亿美元扩大的AI集群最终能打造出一个不会自称为“机械希特勒”的智能体。


文章标签: #人工智能 #GPU集群 #马斯克 #xAI #开源

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。