随着AI数据中心算力需求不断攀升,电力消耗也随之水涨船高。据估算,到英伟达(NVIDIA)推出Feynman一代产品时,电力需求将飙升至当前的17倍。
英伟达(NVIDIA)的Feynman GPU拥有多项突破性功能,计划在Rubin之后、于2028年推出。该公司一直致力于提供更高效的AI解决方案,但随着需求的增长,电力消耗也急剧增加。

摩根士丹利研究部(Morgan Stanley Research)发布了一张图表,直观展示了英伟达(NVIDIA)三款AI机架解决方案的总功率半导体含量。从B200到Feynman,单个AI服务器机架里的功率半导体含量,从11,234美元飙升至191,000美元以上,暴涨17倍。
增长曲线的形态值得关注。B200到GB300阶段还是线性增长,但从Rubin开始进入指数区间,Rubin Ultra到Feynman一代更是翻了一倍。以基准的Blackwell或B200机架为例,其总功率半导体含量预估约为11,234美元。GB200机架的成本增加约4,000美元,GB300机架则再增加约3,500美元。整个Blackwell系列的功率半导体成本攀升至17,761美元。
然而,随着英伟达(NVIDIA)机架演进到Rubin和Feynman等未来芯片,仅功率成本一项就将迎来大幅飙升。Rubin机架预计于今年晚些时候推出,其功率半导体成本预估将超过33,000美元,是Blackwell GB200的3倍。而英伟达(NVIDIA)的Rubin Ultra机架,其电力系统成本预计将是Rubin机架的3倍,预估约为95,000美元。Feynman机架的功率半导体成本将是Rubin Ultra机架的两倍,跃升至惊人的191,000美元以上。这相比Blackwell机架增长了17倍,充分展示了AI专用机架在Feynman这一代仅功率半导体成本就达到了何等规模。
具体来看,功率半导体含量的大头是PCS和VRM(电压调节模块)的次级部分,占比分别达到27%和26%。紧随其后的是为机架供电的PSU,占比达19%。侧挂VRM占比15%,而IBC(初级中间总线转换器)和BBU/UPS占比各为4%至5%。其余个位数的份额由开关、网卡和电子保险丝瓜分。
英伟达(NVIDIA)已宣布,其未来AI数据中心将转向800V DC架构,以取代传统的48V/54V标准。此举旨在消除瓶颈、降低电流、减少铜材用量和线缆体积,同时提供更安全、可扩展的基础设施设计方案。800V DC系统结构紧凑,非常适合下一代配电需求,可减少转换与布线体积,并最大程度降低配电损耗。
现有设计遇到的瓶颈包括:
空间限制:目前的英伟达(NVIDIA) GB200 NVL72或GB300 NVL72机架最多需要8个电源模块来为MGX计算和交换模块供电。如果继续沿用54V DC配电方案,在兆瓦级的Kyber机架上,电源模块将占用多达64U的机架空间,留给计算的空间所剩无几。在2025年GTC大会上,英伟达(NVIDIA)展示了一个800V的侧挂电源模块,用于在单个Kyber机架上为576个Rubin Ultra GPU供电。另一种方案是为每个计算机架配备一个专用的电源机架。
铜材过载:在单个1MW机架中使用54V DC的物理特性要求高达200公斤的铜母线。仅单个1GW数据中心机架的母线就可能需要多达200,000公斤的铜。显然,在GW级数据中心的未来,当前的配电技术是不可持续的。
转换效率低下:电源链路中重复的AC/DC转换能效不高,并且增加了故障点。
800V DC系统的主要优势包括:
高效率与低损耗:转换至800V VDC减少了功率转换步骤(例如,直接从800V降压至芯片所需的6V),从而最大限度减少了能量损失。
缩小基础设施体积:较低的电流允许使用更细、更轻的线缆和更小的电源组件,从而为更多算力腾出宝贵的IT机架空间。
由先进功率电子技术赋能:该系统大量采用氮化镓(GaN)和碳化硅(SiC)半导体,能够实现高效的高压开关。
数据中心应用:根据2026年的行业标准,AI工厂采用此架构为承载着数百个GPU的机架供电,支撑兆瓦级的功率密度。
安全与稳定:尽管工作电压更高,但800V DC架构包含了如固态继电器、高压热插拔和隔离传感器等专用组件,以确保安全。
800V DC将首先应用于英伟达(NVIDIA)的Kyber机架,预计2027年问世。该机架将以高密度配置容纳Rubin Ultra AI GPU系列,包含576个Rubin Ultra芯片,并采用全液冷600kW解决方案。对800V DC架构日益增长的依赖以及功率组件的巨大增长,将促使VRM制造商和电源供应商积极响应,扩大生产规模,以满足下一代数据中心日益增长的需求。



