《和平使者》第二季藏疯狂内容,DC粉丝梦回正义联盟
阅读全文

锤刻创思寰宇网
内存容量往往是许多人工智能应用的瓶颈,但为主机系统添加内存有时不可行或非常复杂。为此,英伟达支持的初创企业Enfabrica开发出Emfasys系统——这套方案能通过以太网连接,为任何服务器扩展数TB容量的DDR5内存。该基于以太网的内存池专为大规模推理工作负载设计,目前正由特定客户进行测试。
Enfabrica的Emfasys系统采用机架式设计,搭载该公司ACF-S SuperNIC芯片,提供3.2Tb/s(400GB/s)吞吐量。通过CXL协议可连接最高18TB DDR5内存,支持四路/八路GPU服务器通过标准400G/800G以太网端口,采用RDMA over Ethernet技术实现无缝接入。
该系统通过RDMA技术实现GPU服务器与内存池的数据传输,借助CXL.mem协议达成微秒级延迟的零拷贝内存访问(无需CPU介入)。服务器需运行Enfabrica提供的内存分层软件(用于掩盖传输延迟等),该软件兼容现有硬件与操作系统环境,基于广泛采用的RDMA接口,部署过程无需重大架构改动。
Emfasys系统旨在解决现代AI应用日益增长的内存需求——包括超长提示词、大上下文窗口或多智能体场景。这些工作负载对容量有限且价格高昂的GPU HBM显存造成巨大压力。通过外置内存池,数据中心运营商可弹性扩展单台AI服务器的内存容量。
采用Emfasys内存池后,AI服务器所有者能提升计算资源利用率,避免昂贵的GPU显存浪费,从而降低整体基础设施成本。据Enfabrica测算,在高吞吐和长上下文场景中,该方案可将单token生成成本降低达50%。token生成任务还能更均衡地分配于多台服务器,从而消除瓶颈。
“AI推理存在内存带宽扩展和内存堆叠边际的问题,”Enfabrica首席执行官Rochan Sankar表示,“当推理从对话式转向多智能体,从易遗忘转向强记忆时,现有内存扩展方式将难以为继。我们构建Emfasys正是为了创建弹性的机架级AI内存架构,以前所未有的方式解决这些挑战。”
目前,Emfasys AI内存架构系统与3.2Tb/s ACF SuperNIC芯片正由特定客户评估测试,尚未公布正式上市时间。作为超以太网联盟(UEC)顾问成员及UALink联盟贡献者,Enfabrica持续参与下一代互联技术的标准化工作。