在美国对英伟达(Nvidia)最新推出的H20加速器实施新限制后,中国人工智能产业正悄然转向经过翻新的二手英伟达GPU。这款基于Hopper架构的缩水版GPU本是专为符合美国出口限制而设计,旨在维持英伟达在中国市场的存在。但随着7月恢复出口后,中国监管机构提出数据安全担忧并实际禁止采购该芯片,H20已被边缘化。

Cover Image

Digitimes最新报告,这导致对旧款A100H100芯片的需求激增——企业通过拆解重组将这些芯片改造成“低成本、高性能”的定制推理系统。

为何二手芯片仍能胜任

相比训练任务,推理的计算强度较低。模型不需要完整的浮点精度,经过精简或重新配置的硬件即可高效运行工作负载。这就是为何即便2020年发布的A100在某些场景中依然具有价值。

A100基于英伟达安培架构打造,配备最高80GB HBM2e显存2TB/秒带宽。虽然其峰值吞吐量不如Hopper架构产品,但凭借大容量内存池和成熟的CUDA软件生态,在推理任务中仍表现出色。对于聊天机器人和推荐引擎等应用,开发者无需尖端芯片也能实现成本效益。

2022年发布的H100采用HBM3内存,人工智能训练吞吐量可达A100的六倍。而H20虽为推理优化,但其人工智能性能仅相当于完整版H100的1/3至1/7,在FP64超算任务中速度更慢三十倍以上。实践中,对中国买家而言,重新配置的A100反而比全新H20更具吸引力。

由于英伟达CUDA生态系统仍无可替代,旧款显卡对开发者即插即用。加之推理硬件可全天候运行且精度损失风险较低,中国数据中心显然愿意接受可靠性逐步降低的翻新板卡。

英伟达的市场困境

这种局面使英伟达陷入两难。当华盛顿对华出口实施许可要求时,该公司对未售出的H20库存计提了55亿美元减值损失。但矛盾的是,其GPU仍然是中国当前人工智能热潮的催化剂。这对英伟达如同双刃剑:芯片虽保持主导地位,但灰色市场渠道可能侵蚀利润并延缓新架构推广。

灰色市场对北京而言同样棘手——中国政府迫切希望华为(Huawei)壁仞(Biren)等本土企业崛起。每个搭载二手改装H100的中国数据中心,都意味着少一个运行昇腾(Ascend)加速器的系统,这可能会拖慢国内技术投资进程。

最终,回收GPU的泛滥揭示出出口管制收紧带来的意外后果。美国政策制定者本欲限制中国获取尖端算力,北京则力图加速国产芯片替代。但实际结果是形成了循环经济——过去的A100H100仍在支撑未来的人工智能部署。

目前,中国人工智能产业正以务实态度应对:在等待政治和技术障碍消除的同时,最大限度延长旧款英伟达硬件的使用寿命。


文章标签: #人工智能 #英伟达 #芯片限制 #二手GPU #AI推理

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。