亚马逊日本泄露《仁王3》发售日期,预计2026年2月6日推出
阅读全文

锤刻创思寰宇网
人工智能(AI)永无止境的电力消耗既昂贵又不可持续。这是贝恩公司(Bain & Company)最新报告的核心观点,该报告对满足AI算力需求所需付出的代价给出了一个惊人的数字——到2030年,全球数据中心每年需要超过5000亿美元的投资,并且需要2万亿美元的年收入才能使这些资本支出合理化。即使在乐观的假设下,贝恩估计AI产业仍将面临8000亿美元的资金缺口。
这对当前围绕AI的叙事无疑是一次清醒的现实检验,它穿透了那些万亿参数的炒作周期,直指基础设施的物理限制和经济规律。如果贝恩的预测正确,整个行业正加速冲向一堵由电力限制、GPU供应短缺和资本瓶颈共同筑起的高墙。
贝恩论点的关键在于,算力需求的增长速度已经超过了支撑它的工具的发展速度。当摩尔定律已近乎停滞时,AI的工作负载却并未放缓。贝恩估计,推理和训练需求的增长速度是晶体管密度增长速度的两倍多,这迫使数据中心运营商只能依靠粗放的规模扩张,而非依赖单芯片效率的提升。其结果是,到2030年,全球AI算力的总功耗可能达到200吉瓦(GW),其中仅美国就将占据一半。
这种局面将要求对地方电网进行大规模、近乎难以想象的升级,电力设备需要长达数年的交付周期,并消耗数千吨的高端冷却资源。更糟的是,许多核心芯片,如高带宽内存(HBM)和晶圆基底芯片(CoWoS),已经面临供应限制。英伟达(Nvidia)今年自身的评论,也与贝恩的报告相呼应,表明除了定价之外,需求正在全面超越行业的供应能力。
如果资本枯竭或停滞不前,超大规模云服务商将加倍投入那些能提供最佳每瓦性能和每平方英尺效益的系统。这将提升像英伟达GB200 NVL72或AMD Instinct MI300X这样的全机架GPU平台的地位,因为在这些系统中,散热密度和互连效率主导了物料清单成本。同时,这也会降低小批量配置的优先级,尤其是那些基于主流工作站部件的配置,进而减少可能流入高端台式机的芯片供应。
这对PC端也有影响。如果训练成本受限,并且数据中心推理遇到电力天花板,更多的工作负载将向边缘转移。这直接利好目前正在出货算力在40至60 TOPS范围内的神经处理单元(NPU)的笔记本电脑和台式机OEM厂商。贝恩的分析框架也解释了其原因:边缘推理不仅速度更快,而且成本更低,资本密集度也更低。
与此同时,竞赛仍在继续。微软(Microsoft)最近将其在威斯康星州的AI数据中心支出提高到超过70亿美元。亚马逊(Amazon)、Meta和谷歌(Google)也各自追加了数十亿美元的投资,xAI也是如此,但这些资金大部分早已被指定用于GPU分配和模型开发。正如贝恩指出的,即使是这些激进的数字,可能也不足以弥合成本与收入之间的差距。
无论如何,这份报告都加剧了当前AI周期核心的矛盾张力。一方面,基础设施需要数年时间才能完成建设、配备人员和通电运行。另一方面,AI模型的规模和成本每六个月就翻一番,这加剧了人们对AI泡沫的担忧。如果这种增长持续下去,意味着高端芯片及其配套的内存和冷却技术,在整个未来十年内都可能持续稀缺且昂贵。