人工智能服务器的冷却系统是人工智能数据中心中耗电量最高的系统之一。据《每日科技》报道,加州大学圣地亚哥分校的工程师们开发出一种全新的冷却技术,采用特殊设计的纤维膜,有望大幅降低满载人工智能GPU的服务器机柜的功耗与用水量。

这种基于纤维膜的冷却系统利用蒸发冷却原理,从被冷却的组件中带走热量。该薄膜由多个相互连接的微孔组成,通过毛细作用将冷却剂吸引至其表面。系统包含三层结构:底层设有的微通道供液体流通,中层为薄膜所在位置,顶层则是蒸发器层。当冷却剂流经微通道时,会被薄膜吸收,被冷却组件产生的热量将液体转化为蒸汽,通过蒸发器层排出。未蒸发的多余冷却剂则保留在微通道中,很可能被循环利用。
据报道,这种冷却方式修正了早期采用多孔膜的蒸发冷却设计存在的缺陷。先前失败尝试中的微孔尺寸要么过小要么过大,导致冷却剂堵塞或沸腾。相比之下,这项最新的纤维膜冷却系统采用具有恰到好处互联微孔的多孔纤维膜,有效防止堵塞和沸腾现象的发生。
最重要的是,这项最新设计实现了每平方厘米800瓦的破纪录热通量,并在连续数小时运行中保持稳定,为高耗能数据中心应用提供了极具潜力的解决方案。这不仅是一项高效解决方案,而且据称该薄膜冷却系统的运行效率远低于其理论极限,这表明未来我们有望看到冷却能力更强大的升级版本。
这类冷却系统正是当前数据中心行业迫切需要的。随着人工智能开发持续迅猛发展,现有数据中心液体冷却系统已难以胜任需求,正如我们在关于数据中心浸没式冷却的文章中讨论过的情形。英伟达下一代数据中心/人工智能GPU的功耗预计将呈现爆发式增长,甚至远超当前布莱克威尔旗舰人工智能GPU的功耗水平。在鲁宾/鲁宾Ultra之后即将推出的费曼GPU,预计功耗将高达4400瓦。



