供应链调查显示,苹果iPhone17四季度组装6200万台
阅读全文

锤刻创思寰宇网
OpenAI与博通(Broadcom)于10月13日共同宣布签署多年合作协议,将联合开发并部署10吉瓦定制人工智能加速器及机架系统。OpenAI负责加速器与系统设计,博通则主导从2026年下半年启动的开发与部署工作,计划在2029年底前完成全面部署。
此次合作是OpenAI持续积极推进硬件战略的重要组成部分。与当前依赖英伟达GPU不同,新系统将基于自研加速器,并结合博通的网络与硬件知识产权。此举可能标志着行业将逐渐摆脱传统以GPU为核心的集群模式,转向为OpenAI训练与推理工作负载量身定制的深度集成芯片。
两家公司此前已合作超过18个月,本次协议是在此基础上的正式深化。虽然技术细节披露有限,但联合声明确认系统将采用基于以太网的网络架构,这表明其数据中心设计注重可扩展性与供应商中立性。OpenAI表示部署将分阶段进行数年,首批机架将于2026年下半年投入运行。
新协议进一步扩充了OpenAI与英伟达、AMD的现有合作,使其硬件承诺总量预计达26吉瓦,其中包括约10吉瓦的英伟达基础设施以及未公开数量的AMD即将推出的MI系列产品。
值得关注的是,OpenAI据信并非博通此前未公开的100亿美元客户。博通半导体总裁查理·卡瓦斯(Charlie Kawwas)在接受CNBC采访时与OpenAI的格雷格·布罗克曼(Greg Brockman)同台时笑称:“我很想从我的好友格雷格那里拿到100亿美元订单,但他还没给我采购单。”《华尔街日报》报道称本协议价值达“数十亿美元”。
通过此次合作,OpenAI将获得博通在ASIC设计领域的深厚积累与成熟的供应链体系。博通目前已为超大规模客户生产定制AI芯片,包括谷歌的TPU基础设施。借助博通的以太网和小芯片知识产权,OpenAI无需从零组建芯片团队即可实现差异化硬件方案。
对英伟达而言,此次合作意味着主要AI客户探索自研芯片的趋势正在扩大。亚马逊、谷歌、Meta和微软目前均在开发定制加速器。尚未明确的是这些定制解决方案在大规模应用中的实际表现,以及博通等供应商能否达到CUDA生态系统的成熟度。
两家公司均未披露即将推出的加速器的代工合作伙伴、封装流程或内存选择方案。这些决策与晶圆产能同样将直接影响交付时间表。距离部署启动仍有一年时间,倒计时已经开始。