高通(Qualcomm)近日发布了最新人工智能芯片系列,其设计可扩展至整机柜级专用人工智能推理解决方案。值得关注的是,这些芯片创新性地采用了移动端内存技术。

这家源自圣迭戈的芯片制造商已从移动设备核心供应商成功转型,近年业务版图扩展至消费计算与人工智能基础设施领域。最新推出的AI200和AI250芯片解决方案专为机柜级配置设计,不仅标志着英伟达(NVIDIA)与超微半导体(AMD)主导的领域迎来新竞争者,更通过采用移动端LPDDR内存实现了独特的技术路径。
新一代加速器封装集成了高达768GB的LPDDR内存,显著超越行业现有HBM容量。这种被企业称为“近内存”方案的核心优势在于降低数据迁移能耗与成本,其相较于传统HBM解决方案具有以下突破性提升:
能效优化(单位比特功耗更低)
成本低于当代HBM模组
高内存密度(完美契合推理场景)
散热效率提升
尽管前景可观,高通机柜级方案在内存带宽、窄接口导致的高延迟,以及LPDDR在7x24小时高温服务器环境下的稳定性等方面,仍与主流方案存在差距。该方案精准定位于企业级推理需求,LPDDR的运用虽能实现该目标,但也将应用场景限定于特定领域。
AI200与AI250芯片还集成直接液冷技术、PCIe/以太网协议,整机柜功耗控制在160千瓦,在现代解决方案中表现突出。芯片内置的Hexagon神经网络处理器持续增强推理能力,支持先进数据格式及推理专用功能。
值得关注的是,众多计算供应商正加速布局推理解决方案市场,例如英特尔(Intel)的“新月岛”方案与英伟达近期推出的鲁宾CPX人工智能芯片。高通显然洞察到推理细分领域正获得市场聚焦,因此新芯片的推出堪称精准卡位。不过对于现代训练或大型工作负载而言,此类方案尚非首选。
人工智能领域日益激烈的竞争令人振奋,市场对此次新品发布亦展现出积极反响。



