迪士尼对流媒体用户喊话,捆绑套餐更划算,否则浪费钱
阅读全文

锤刻创思寰宇网
美光(Micron)已确认将与台积电(TSMC)合作,生产其下一代HBM4E内存的基础逻辑晶粒,目标量产时间为2027年。该公司在9月23日举行的第四季度财报电话会议上宣布了这一消息,为其本就紧凑的技术路线图增添了更多细节。
美光目前正在交付早期HBM4样品,其每引脚速度超过11 Gbps,可提供高达2.8TB/s的带宽,并且已锁定了2026年大部分HBM3E的供应协议。但最重要的信息是,美光将把标准及定制HBM4E逻辑晶粒的制造任务交由台积电完成,这为针对人工智能工作负载定制内存解决方案打开了大门。
这一决定也使美光稳固置身于下一波人工智能系统设计的中心,这与之前关于美光、SK海力士(SK hynix)和三星(Samsung)的HBM路线图报道相符,也与早前关于美光如何将HBM4E视为定制化平台的分析一致。
业界对HBM的发展节奏已很熟悉:当前是HBM3E,2025至2026年是HBM4,大约在2027年将是HBM4E。每一代新产品都带来更高的每引脚数据速率和更高的堆叠层数。SK海力士已确认将推出具有完整2048位接口、运行速度为10 GT/s的12层HBM4,而三星也正规划采用自家逻辑工艺实现类似容量。美光正在交付自家的HBM4堆栈,并声称其效率比HBM3E高出20%以上。
HBM4E是该路线图的延伸,但美光将其视为更具战略意义的一步。该公司强调,基础晶粒将在台积电而非内部工厂制造,并且将向愿意支付溢价的客户提供定制逻辑晶粒设计。通过开放基础晶粒的定制,美光实质上将HBM转变为一个半可配置的子系统。GPU供应商可以不再局限于千篇一律的接口层,而是可以请求额外的SRAM、专用压缩引擎或调谐的信号路径。
这种方法与我们从SK海力士所见相呼应,该公司早已将可定制基础晶粒描述为其HBM4战略的一部分。鉴于定制内存更具客户粘性、利润更高,并且对于试图从AI加速器中榨取每一瓦特性能和每一个计算周期的客户来说更为重要,这很可能成为市场中利润丰厚的一个细分领域。
美光公布HBM4E计划的时间点看似并非偶然。英伟达(Nvidia)和超微半导体(AMD)都计划在2026年推出采用HBM4的下一代数据中心GPU,而HBM4E看起来与它们的后续产品完美契合。
预计在2026年接替Blackwell的英伟达Rubin架构正是围绕HBM4构建的。预计Rubin级GPU将提供约13 TB/s的内存带宽和高达288GB的容量,相比采用HBM3E的Hopper架构8 TB/s的带宽上限是一次飞跃。后续平台Rubin Ultra已出现在英伟达的2027年路线图上。该平台明确要求HBM4E,每个GPU支持高达1TB的内存,整机架级的总带宽将达到每秒PB级别。
超微半导体的发展路线同样激进。预计与Rubin大致同期推出的Instinct MI400系列也将转向HBM4。泄露信息表明其将配备高达432 GB的HBM4和19.6 TB/s的带宽,是当前MI350所提供的两倍多。与Rubin类似,MI400采用小芯片设计,由超宽内存总线连接,这使得HBM4成为必需。此后便是HBM4E,预计在2027年或2028年推出,具体取决于良率和生态系统准备情况。
这一发展节奏使得美光与台积电的合作尤为重要。通过将基础晶粒转移到先进逻辑工艺节点并提供定制化,美光可以使其路线图与Rubin Ultra、MI400后续产品以及加速器领域未来任何新需求保持同步。
从更宏观的角度看,美光与台积电的合作引发了关于HBM4E如何广泛普及到AI数据中心的思考。目前,只有最高端的GPU和TPU使用HBM,大多数服务器仍依赖DDR5或LPDDR。但随着工作负载规模持续膨胀,这一情况可能会发生巨大变化。
美光已表示其HBM客户群已增至六家,英伟达位列其中。该公司还正与英伟达合作在服务器中部署LPDDR。与台积电的合作表明,美光意图使HBM4E成为被广泛采用的AI基础设施组成部分,有可能使其在2020年代后半期成为AI节点的标准内存层级。