CES 2026上,群联电子(Phison)展示了搭载其aiDAPTIV+软硬件组合的消费级PC,其运行AI推理的速度比未使用该专用技术套件时快达十倍。当群联电子2024年年中首次推出aiDAPTIV+技术时,其核心是将NAND闪存转变为与DRAM并列的受管理内存层级,从而让大型AI模型能够在DDR5和/或HBM内存不足的系统上进行训练或运行。但当时,这仅是一个面向企业的概念验证。到了2026年初,该技术的定位已经改变,如今群联电子将其视为客户端PC上运行AI推理模型的赋能者,这极大地拓宽了其应用场景。

Cover Image

通常,在推理过程中,当令牌不再能放入GPU的键值缓存时,较旧的键值条目会被逐出。因此,如果模型再次需要这些令牌(例如在长上下文或智能体循环的情况下),GPU必须从头开始重新计算,这在内存容量有限的系统上会导致AI推理效率低下。然而,在配备了群联电子aiDAPTIV+技术栈的系统中,那些无法放入GPU键值缓存的令牌会被写入闪存并保留以供未来重用。这可以在许多情况下降低内存需求,并显著缩短“首令牌时间”,即生成响应第一个词所需的时间。

群联电子aiDAPTIV+平台的新焦点旨在让配备入门级甚至集成GPU的普通PC能够处理远超其安装的DRAM通常所能允许的更大AI模型。将大型模型推理和有限训练能力引入台式机和笔记本电脑,对于目前无力在AI领域进行大规模投资的开发者和中小企业而言可能极具价值。因此,群联电子CES 2026上拥有一系列采用该技术的aiDAPTIV+测试合作伙伴系统,包括宏碁(Acer)华硕(Asus)海盗船(Corsair)亿道信息(Emdoor)微星(MSI),甚至英伟达(Nvidia)。例如,宏碁成功在一台仅配备32GB内存的宏碁笔记本电脑上运行了gpt-oss-120b模型,这为众多应用打开了大门。

根据群联电子的内部测试,aiDAPTIV+可以将推理响应时间加速高达10倍,同时降低功耗并改善笔记本电脑的“首令牌时间”。显然,模型越大、上下文越长,收益就越高,因此该技术对于专家混合模型和智能体AI工作负载尤其相关。群联电子声称,一个1200亿参数的MoE模型只需32 GBDRAM即可处理,而传统方法大约需要96 GB,这是因为非活跃参数被保存在闪存中,而非驻留在主内存里。

鉴于群联电子aiDAPTIV+技术栈涉及基于群联电子先进控制器、特殊固件和软件的AI感知SSD,该技术的实现应该相当直接。这对于有意使用此功能的PC制造商、增值经销商和小型企业来说非常重要,因此可以合理地预期,他们中的许多厂商会将其用于面向开发者和高端用户的旗舰机型中。对群联电子而言,这意味着其控制器的使用率将提升,同时通过向合作伙伴销售aiDAPTIV+技术栈带来额外的收入。


文章标签: #群联电子 #AI推理 #CES2026 #aiDAPTIV #PC硬件

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。