美光(Micron)第二财季业绩创下纪录,DRAM需求增长,但其首席执行官表示,这仅仅是开始,因为人工智能需要更多内存才能充分发挥其潜力。

SSD-Prices.jpeg

美光首席执行官认为,人工智能要充分发挥潜力,对更快内存的需求将大幅增长

内存与存储制造商美光(Micron)在包括DRAM、NAND和HBM在内的所有业务领域均实现了非凡增长。这一增长源于对其产品的需求飙升,因为代理型人工智能(Agentic AI)热潮持续推动每一家内存与存储公司起飞。

在与CNBC的对话中,美光(Micron)首席执行官表示,我们在人工智能行业目前所看到的仅仅是开始,他将其称为“第一局”。随着人工智能公司扩展其计算能力,更快、更高密度的内存将成为维持人工智能运转的关键组成部分。

人工智能仍处于非常早期的阶段;你在GTC上刚刚看到人工智能取得了多少进步。而内存是一种战略资产。你需要更多内存、需要性能更快的内存,才能让人工智能发挥其全部能力。

这是推理拐点。随着推理范围扩大,对词元(Token)的需求将成倍增长,而这些词元需要快速处理。而且,你猜怎么着,你需要更多内存、更快的内存来释放内存的全部潜力。目前内存供应非常紧张,而且供应不容易快速提升,这从我们的业绩中就能看出来。

桑杰·梅赫罗特拉(Sanjay Mehrotra)——美光(Micron)董事长、总裁兼首席执行官

为了让人工智能模型运行更快并提高词元生成速度,需要更多算力,而内存对算力至关重要。人工智能GPU需要HBM,人工智能CPU需要DRAM,而且,你猜怎么着,所有这些都供不应求。这不是需求或定价的问题,而是主要厂商无法解决供应问题,而且从未来前景来看,情况不会好转。

GPU正积极采用更新、密度更高的HBM标准。即将推出的产品线,如支持HBM4的薇拉·鲁宾(Vera Rubin)和MI400,不仅将提升带宽,还将最大化容量,为下一代HBM解决方案树立标准。另一方面,DRAM正以加速速度增长,需求超过供应,这是因为代理型人工智能工作负载的增加正在推动CPU将内存支持提升至400GB.LPDDR已成为人工智能时代的新宠,因为其能效特性使其非常适合大规模扩展部署。

美光(Micron)董事长、总裁兼首席执行官桑杰·梅赫罗特拉(Sanjay Mehrotra)表示:“美光(Micron)在第二财季的收入、毛利率、每股收益和自由现金流均创下新纪录,这得益于强劲的需求环境、紧张的行业供应以及我们强有力的执行。我们预计第三财季将再次创下重大纪录。在人工智能时代,内存已成为客户的战略资产,我们正在投资全球制造布局,以支持他们日益增长的需求。”

根据最新趋势,人工智能对DRAM和NAND的需求预计今年将超过整个行业总市场规模(TAM)的50%。美光(Micron)再次指出,传统服务器和人工智能服务器需求依然强劲,但因DRAM和NAND供应短缺而受到限制。随着更新及新平台的涌入,DRAM需求将持续增长。

美光(Micron)正为英伟达(NVIDIA)的薇拉·鲁宾(Vera Rubin)平台供应HBM4 36GB(12-Hi)DRAM,并预计现有HBM3工艺将实现成熟良率。该公司还在开发下一代HBM4E HBM内存,预计明年开始量产。在LPDDR方面,该公司最近推出了采用LPDDR5X模块的256 GB SOCAMM2内存,容量可达2 TB,同时还为英伟达(NVIDIA)的Groq 3 LPX供应DDR5内存。Groq LPU每芯片提供高达12 TB的容量。

在消费端,美光(Micron)预计PC和移动设备出货量将因供应受限和价格上涨而出现低两位数百分比下滑。该公司还强调,32GB已成为本地运行代理型人工智能工作负载的PC的首选。


文章标签: #内存芯片 #人工智能 #DRAM #HBM #供应紧张

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。