尝试玩家自制捷径挑战火山口,结果全员熔岩烧烤
阅读全文

锤刻创思寰宇网
随着AI处理器集成更多计算单元和高带宽内存(HBM)小芯片,这一趋势预计将持续加剧。据业内消息人士透露,英伟达(Nvidia)正在为其下一代显卡设计6000W至9000W的热设计功耗(TDP),而韩国顶尖研究机构KAIST的专家预测,未来十年内AI显卡的TDP将攀升至惊人的15360W。这意味着需要采用极端散热方案,包括浸没式冷却甚至嵌入式冷却技术。
此前,配备铜质散热器与高压风扇的高性能风冷系统足以应对英伟达H100 AI处理器的散热需求。但随着Blackwell架构将散热功耗提升至1200W,后续Blackwell Ultra更将TDP推高至1400W,液冷方案几乎成为必选项。即将问世的Rubin架构将TDP提升至1800W,而采用双倍GPU小芯片与HBM模块的Rubin Ultra更将TDP飙升至3600W。KAIST研究人员认为,英伟达及其合作伙伴将为Rubin Ultra采用直触式液冷(D2C)方案,但面对后续的Feynman架构则需更强大的散热手段。
KAIST研究人员预测AI显卡模块(特别是英伟达Feynman架构)将产生4400W热功耗,而部分行业消息称Feynman Ultra的TDP将达6000W。如此极端的发热量需要采用浸没式冷却技术——将整个GPU-HBM模块浸入导热液中。此外,这些处理器及其HBM模块预计将通过散热通孔(TTV)实现热传导,这些垂直通道专为散热设计于硅基板中,并与嵌入HBM模块基底芯片的热粘合层、温度传感器配合,实现实时热监测与反馈控制。
浸没式冷却技术预计可持续应用至2032年,届时后Feynman架构的显卡单封装TDP将攀升至5920W(标准版)甚至9000W(Ultra版)。值得注意的是,显卡模块的主要功耗源虽为计算小芯片,但随着后Feynman时代HBM堆栈数量增至16个,配合HBM6技术使单堆栈功耗达120W,显存总功耗将达约2000W,占据整封装功耗的三分之一。
KAIST研究团队推测,到2035年AI显卡功耗将增至约15360W,这要求对计算与显存小芯片均采用嵌入式冷却结构。专家提出两大创新技术:横向传导热量的热传输线(TTL),以及允许冷却剂垂直流经HBM堆栈的流体硅通孔(F-TSV)。这些技术直接集成于中介层与硅片中以确保热稳定性。
至2038年,完全集成的散热方案将更趋普及与先进。采用双面中介层实现垂直堆叠设计,并全程嵌入流体冷却系统。同时,“计算层优先”的GPU顶层架构将优化热移除效率,而同轴硅通孔技术则能平衡信号完整性与热流传导。