威联通(QNAP)推出了其全新AI NAS,集成了16核心AMD霄龙(EPYC)“Zen 2”处理器,并可搭配最高96GB显存的RTX PRO 6000 Blackwell GPU使用。

QNAP-AI-NAS.jpeg

“QAI-h1290FX”是威联通(QNAP)最新推出的边缘AI产品,融合了两种截然不同的硬件组件。这款AI NAS专为大语言模型(LLM)、检索增强生成(RAG)以及各类生成式AI应用而设计。

这台服务器由两大组件驱动。首先是AMD霄龙(EPYC)7302P处理器,拥有16核心32线程,基于Zen 2核心架构,足以处理边缘端的AI推理任务。第二个组件是GPU,威联通(QNAP)提供两种选项:32GB显存的RTX PRO 4500 Blackwell,或英伟达(NVIDIA)旗舰级96GB显存的RTX PRO 6000 Blackwell。两者都具备强大的AI计算能力,其中PRO 4500面向约300亿参数以下的大语言模型,而PRO 6000则适用于700亿参数及以上的AI大语言模型。

除CPU和GPU外,威联通(QNAP) QAI-h1290FX支持12个U.2 NVMe/SATA固态硬盘,并配备双25GbE和双2.5GbE LAN端口。PCIe插槽还可支持额外的100GbE网卡(需单独购买)。该NAS还兼容威联通(QNAP)的JBOD扩展柜,用于大规模AI数据存储。

该NAS的主要特性包括:

全闪存存储架构

12个U.2 NVMe/SATA固态硬盘插槽,实现超高速I/O,满足高频AI模型执行和数据流需求。

16核心AMD霄龙(EPYC)7302P处理器

提供32线程的服务器级算力,适用于AI推理、虚拟化和高负载并行任务。

GPU就绪架构

支持可选配的英伟达(NVIDIA) RTX PRO 6000 Blackwell Max-Q工作站GPU,最高配备96GB显存,并支持CUDA、Tensor Core和Transformer Engine加速,显著提升本地大语言模型推理、图像生成和深度学习工作负载的性能。

容器化AI环境与GPU资源管理

支持Docker和LXD,提供直观的GPU分配。用户可通过内置AI应用中心快速启动AI工具,无需命令行配置即可分配GPU资源。

完全本地部署,无需依赖云端

可在本地完全运行AI聊天助手、文档搜索引擎或知识库,在加速AI工作流的同时,将敏感数据留存在内部。

高速网络与可扩展架构

配备双25GbE和双2.5GbE端口,PCIe插槽支持可选100GbE升级。兼容威联通(QNAP) JBOD扩展柜,实现大规模AI数据存储。

威联通(QNAP)还分享了其新AI NAS在使用英伟达(NVIDIA) RTX PRO 6000 96GB Blackwell GPU时的真实性能表现,但具体测试数据已删除。此外,针对同一配置的并发推理测试结果也已删除。

威联通(QNAP)提供丰富的存储、网络和接口扩展卡,可单独购买以扩展AI服务器的能力。内存也需单独购买,可选范围从8GB DDR4-3200模块到64GB DDR4-3200套装。系统配备5年质保,起售价分别为:64GB版本8,999美元,128GB版本13,499美元,256GB版本15,999美元


文章标签: #AINAS #威联通 #AMD霄龙 #英伟达 #边缘AI

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。