横版动作游戏《Absolum》首周销量破20万,爽快连招获特别好评
阅读全文

锤刻创思寰宇网
英伟达(NVIDIA)的AI服务器功耗需求出现显著增长,引发了对这种增长可持续性的质疑。从安培架构转向凯伯架构的八年内,英伟达AI服务器的功耗预计将激增100倍。
随着OpenAI和Meta等公司倾注资源追求通用人工智能(AGI)的突破,英伟达等硬件制造商在产品策略上愈发激进。分析师雷·王(Ray Wang)分享的数据显示,英伟达每一代AI服务器平台的功耗需求都在大幅提升,其中从安培到凯伯架构的升级更标志着能耗的百倍跃升。
英伟达机架系统功耗飙升受多重因素驱动,最关键的是单个机架搭载的GPU数量增加以及每代GPU热设计功耗(TDP)的提升。例如霍珀(Hopper)架构时期单个机箱功耗为10千瓦,而到布莱克威尔(Blackwell)架构时,由于GPU数量增加,功耗已跃升至近120千瓦。为满足行业算力需求,英伟达机架级解决方案的能耗正以惊人速度增长。
先进NVLink/NVSwitch互联技术、新一代机架系统及持续高负载运行等因素,共同导致超大规模计算中心的能耗增速达到前所未有的水平。值得注意的是,科技巨头正竞相建设超大规模AI计算园区,衡量标准已升级至“吉瓦”级别——OpenAI和Meta等公司计划在未来数年新增超过10吉瓦的算力容量。
据初步估算,AI超算中心每消耗1吉瓦电力(不含散热与输配电损耗)可满足约100万美国家庭的用电需求。若计入科技巨头正在建设的巨型园区,单个AI设施的耗电量已相当于中等规模国家或美国数个大型州的整体用电水平。这一严峻问题已引发美国特朗普政府多次公开讨论。
国际能源署(IEA)《2025年能源与人工智能》研究报告预测,到2030年,仅AI领域就将导致全球电力消耗翻倍,增速达到电网承载能力的四倍。更值得关注的是,全球范围内数据中心的快速建设将推高居民用电成本,特别是毗邻大型计算中心的区域。最终,美国及其他参与AI竞赛的主权国家都将面临严峻的能源挑战。