在最近的“Advancing AI”主题演讲中,AMD强调了服务器CPU在数据中心领域的重要性,指出如果未采用合适的处理器组合,将会影响整体性能表现。AMD披露,采用EPYC服务器CPU可以使推理工作负载的平均性能提升17%

Cover Image

尽管我们很少讨论服务器CPU在AI计算领域的关键作用,但事实上,这些处理器在训练和推理场景中与AI加速器同样不可或缺。过去几个季度,AMD通过EPYC服务器CPU产品线持续扩大在数据中心市场的影响力,现在已成为该领域的重要参与者。AMD执行副总裁福雷斯特·诺罗德(Forrest Norrod)在演讲中深入阐述了在服务器领域保持CPU+GPU均衡配置的核心价值。

AMD官方将英特尔至强(Xeon)8592+第五代处理器与自家的EPYC 9575F服务器CPU进行对比(两者都搭载了Instinct MI300X AI加速器),直观展示了错误选择CPU平台导致的性能差异。需要说明的是,AMD选用的是最新的EPYC 9005系列处理器,而对比对象是近两年前发布的至强8592+。从纸面参数看,两款CPU都采用64核/128线程设计,且TDP相近,因此对比基准相对公允。

测试数据显示,当采用“理论上更先进”的EPYC 9005平台时,Llama 3.1 8B AI模型在多项测试中的平均性能提升达到6%,随着参数规模扩大,优势可以扩大到17%。这些主要针对推理工作负载的测试表明,服务器CPU的选择对整体性能有显著影响。虽然测试环境搭配了Instinct MI300X AI加速器,但尚不确定是否存在特定的优化因素。

抛开基准测试不谈,AMD服务器CPU市场份额近年来的惊人增长,已充分印证其产品在业界的广泛采纳度。


文章标签: #AMD #EPYC #AI加速 #服务器 #处理器

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。