高通(Qualcomm)近日发布了最新人工智能芯片系列,其设计可扩展至整机柜级专用人工智能推理解决方案。值得关注的是,这些芯片创新性地采用了移动端内存技术。

Cover Image

这家源自圣迭戈的芯片制造商已从移动设备核心供应商成功转型,近年业务版图扩展至消费计算与人工智能基础设施领域。最新推出的AI200AI250芯片解决方案专为机柜级配置设计,不仅标志着英伟达(NVIDIA)超微半导体(AMD)主导的领域迎来新竞争者,更通过采用移动端LPDDR内存实现了独特的技术路径。

新一代加速器封装集成了高达768GB的LPDDR内存,显著超越行业现有HBM容量。这种被企业称为“近内存”方案的核心优势在于降低数据迁移能耗与成本,其相较于传统HBM解决方案具有以下突破性提升:

  • 能效优化(单位比特功耗更低)

  • 成本低于当代HBM模组

  • 高内存密度(完美契合推理场景)

  • 散热效率提升

尽管前景可观,高通机柜级方案在内存带宽、窄接口导致的高延迟,以及LPDDR在7x24小时高温服务器环境下的稳定性等方面,仍与主流方案存在差距。该方案精准定位于企业级推理需求,LPDDR的运用虽能实现该目标,但也将应用场景限定于特定领域。

AI200AI250芯片还集成直接液冷技术、PCIe/以太网协议,整机柜功耗控制在160千瓦,在现代解决方案中表现突出。芯片内置的Hexagon神经网络处理器持续增强推理能力,支持先进数据格式及推理专用功能。

值得关注的是,众多计算供应商正加速布局推理解决方案市场,例如英特尔(Intel)的“新月岛”方案与英伟达近期推出的鲁宾CPX人工智能芯片。高通显然洞察到推理细分领域正获得市场聚焦,因此新芯片的推出堪称精准卡位。不过对于现代训练或大型工作负载而言,此类方案尚非首选。

人工智能领域日益激烈的竞争令人振奋,市场对此次新品发布亦展现出积极反响。


文章标签: #人工智能 #芯片技术 #高通 #推理方案 #内存创新

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。