威联通(QNAP)推出了其全新AI NAS,集成了16核心AMD霄龙(EPYC)“Zen 2”处理器,并可搭配最高96GB显存的RTX PRO 6000 Blackwell GPU使用。

“QAI-h1290FX”是威联通(QNAP)最新推出的边缘AI产品,融合了两种截然不同的硬件组件。这款AI NAS专为大语言模型(LLM)、检索增强生成(RAG)以及各类生成式AI应用而设计。
这台服务器由两大组件驱动。首先是AMD霄龙(EPYC)7302P处理器,拥有16核心32线程,基于Zen 2核心架构,足以处理边缘端的AI推理任务。第二个组件是GPU,威联通(QNAP)提供两种选项:32GB显存的RTX PRO 4500 Blackwell,或英伟达(NVIDIA)旗舰级96GB显存的RTX PRO 6000 Blackwell。两者都具备强大的AI计算能力,其中PRO 4500面向约300亿参数以下的大语言模型,而PRO 6000则适用于700亿参数及以上的AI大语言模型。
除CPU和GPU外,威联通(QNAP) QAI-h1290FX支持12个U.2 NVMe/SATA固态硬盘,并配备双25GbE和双2.5GbE LAN端口。PCIe插槽还可支持额外的100GbE网卡(需单独购买)。该NAS还兼容威联通(QNAP)的JBOD扩展柜,用于大规模AI数据存储。
该NAS的主要特性包括:
全闪存存储架构
12个U.2 NVMe/SATA固态硬盘插槽,实现超高速I/O,满足高频AI模型执行和数据流需求。
16核心AMD霄龙(EPYC)7302P处理器
提供32线程的服务器级算力,适用于AI推理、虚拟化和高负载并行任务。
GPU就绪架构
支持可选配的英伟达(NVIDIA) RTX PRO 6000 Blackwell Max-Q工作站GPU,最高配备96GB显存,并支持CUDA、Tensor Core和Transformer Engine加速,显著提升本地大语言模型推理、图像生成和深度学习工作负载的性能。
容器化AI环境与GPU资源管理
支持Docker和LXD,提供直观的GPU分配。用户可通过内置AI应用中心快速启动AI工具,无需命令行配置即可分配GPU资源。
完全本地部署,无需依赖云端
可在本地完全运行AI聊天助手、文档搜索引擎或知识库,在加速AI工作流的同时,将敏感数据留存在内部。
高速网络与可扩展架构
配备双25GbE和双2.5GbE端口,PCIe插槽支持可选100GbE升级。兼容威联通(QNAP) JBOD扩展柜,实现大规模AI数据存储。
威联通(QNAP)还分享了其新AI NAS在使用英伟达(NVIDIA) RTX PRO 6000 96GB Blackwell GPU时的真实性能表现,但具体测试数据已删除。此外,针对同一配置的并发推理测试结果也已删除。
威联通(QNAP)提供丰富的存储、网络和接口扩展卡,可单独购买以扩展AI服务器的能力。内存也需单独购买,可选范围从8GB DDR4-3200模块到64GB DDR4-3200套装。系统配备5年质保,起售价分别为:64GB版本8,999美元,128GB版本13,499美元,256GB版本15,999美元。



