博通公司(Broadcom)本周宣布已签署协议,向某未公开客户供应价值100亿美元的人工智能数据中心硬件。该硬件包含为客户特定工作负载定制的AI加速器以及公司其他设备。业内普遍推测客户为OpenAI,据称其计划将AI处理器用于推理任务,订单规模可能达数百万颗AI处理器。

Cover Image

一如既往,博通并未透露神秘客户的身份。博通总裁兼首席执行官陈福阳(Hock Tan)在财报电话会议上表示:“上季度,其中一位潜在客户向博通下达了生产订单,我们已将其认定为XPU合格客户,并实际获得了基于我们XPU的超过100亿美元AI机架订单。”

硬件准备就绪

虽然100亿美元的金额已十分惊人,但公告中还暗藏更多信息。博通称该客户现已“通过认证”,这表明芯片及配套平台已通过客户验证。这意味着无论客户是谁,他们都对功能性能表示满意(因此设计已定型)。同时,“下达生产订单”表明客户已从评估测试阶段转向全面商业采购,不过博通将在稍后时间(可能是硬件交付或部署后)确认收入。

博通虽未透露客户名称,但表示将在2026年第三季度(截止于2025年8月初)交付“基于其XPU的机架”。尽管公司称之为“机架”,但这并非戴尔等公司提供的标准机架。博通计划向未公开客户提供的是定制AI加速器(XPU)和网络芯片,以及集成这些组件的参考AI机架平台。这些并非完整系统,而是大型客户规模部署自建AI基础设施的构建模块。

2026年部署时间表

若博通在2026年6月或7月交付硬件,该客户将能在数月内(即2026年秋季)完成部署。这个时间线与传闻中OpenAI首批定制AI处理器(与博通合作开发)的部署窗口期——2026年底至2027年初高度吻合。

OpenAI的定制AI处理器预计将采用脉动阵列架构——一种由相同处理元件(PE)组成、针对矩阵/向量运算优化的网格结构,其设计与现有AI加速器类似。据悉该芯片将配备HBM内存(具体采用HBM3E还是HBM4尚未明确),并很可能采用台积电(TSMC)N3系列(3纳米级)制程工艺。

巨额交易解析

100亿美元的硬件投资对OpenAI而言是重大承诺(尤其考虑到所有设备将在单个季度内交付),这使其正式跻身超大规模服务商行列。作为参照:Meta2025年全年资本支出为720亿美元,其中大部分据称将投入AI硬件;AWS微软(Microsoft)每年也投入数百亿美元采购AI硬件。

按每颗加速器5000至10000美元的成本估算,100亿美元可采购100至200万颗XPU,这些处理器可能分布在数千个机架和上万个计算节点中。其规模堪比或超越当今最大的人工智能推理集群(包括OpenAI自有的巨型集群),这将使OpenAI在未来保持极强竞争力。

长期以来依托微软Azure平台使用AMD英伟达(Nvidia)GPU运行工作负载的OpenAI,如今正转向采用定制博通芯片的自建基础设施——这一战略转变显然旨在控制成本并优化推理性能。额外优势在于:100亿美元不仅可购置百万量级的定制AI加速器,还能在与AMD和英伟达议价时获得重要筹码。当然,这一切的前提是博通的百亿订单确实来自OpenAI,目前该消息尚未获得官方证实。


文章标签: #博通 #OpenAI #AI芯片 #百亿订单 #定制硬件

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。