韩国顶尖研究机构韩国科学技术院(KAIST)发布了一份371页的技术白皮书,详细描绘了高带宽内存(HBM)技术截至2038年的发展路线图。该研究涵盖从HBM4到HBM8的技术演进,展示了带宽、容量、I/O接口宽度及散热性能的全面提升。值得注意的是,这份文件是基于当前产业研究趋势提出的技术演进假设,并非商业公司的实际产品规划。

Cover Image

根据预测,单颗HBM堆栈容量将从HBM4的288GB-348GB跃升至HBM8的5120GB-6144GB。功耗水平也将随性能提升而增长,从HBM4的75W/堆栈攀升至HBM8的180W/堆栈。在2026至2038年间,内存带宽预计从2TB/s提升至64TB/s,数据传输速率由8GT/s增长到32GT/s。HBM封装I/O接口宽度将从当前HBM3E的1024位扩展至HBM4的2048位,最终达到HBM8的16384位

关于HBM4的技术细节已较为明确,其改进版本HBM4E将通过定制化基础晶圆满足AI、高性能计算等特定场景需求。预计2029年问世的HBM5将引入堆叠式去耦电容与3D缓存技术,在保持HBM4数据传输速率的同时,将I/O数量翻倍至4096个,实现4TB/s带宽与80GB/堆栈容量。其100W/堆栈的功耗将催生更先进的散热方案。

2032年登场的HBM6预计采用无凸点直接键合技术,配合硅-玻璃混合中介层,传输速度提升至16GT/s,单堆栈带宽达8TB/s。架构创新包括多塔式内存堆栈、内部网络交换及大规模硅通孔分布。AI设计工具将应用于信号与电源建模的生成式优化。

HBM7与HBM8将实现32GT/s传输速率与64TB/s带宽的突破性指标。240GB的单堆栈容量需要全3D堆叠封装与集成流体通道的双面中介层支持。这两代产品虽仍属HBM技术体系,但架构将发生根本性变革——通过集成NAND接口实现存储数据直接调用,显著降低处理器介入需求,但功耗将达180W/堆栈。KAIST预测届时AI系统将实时优化热管理、功耗与信号路径。

需要说明的是,作为科研机构的技术预测,这份路线图与英特尔、台积电等企业的实际商业规划存在差异。类似的前瞻性研究在比利时微电子研究中心(Imec)、法国原子能委员会电子与信息技术实验室(CEA-Leti)、德国弗劳恩霍夫协会(Fraunhofer)等国际知名机构亦有开展。历史表明,部分看似超前的技术预测往往被产业界以出人意料的方式实现甚至超越。


文章标签: #HBM #内存 #韩国 #AI #芯片

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。