超高速加速器互联联盟(UALink)的核心目标之一,是为人工智能加速器打造一个能与英伟达(Nvidia)NVLink技术抗衡的竞争性互联生态系统。目前英伟达凭借这项专有技术构建了Blackwell NVL72等面向机架规模优化的AI解决方案。随着UALink 1.0标准的问世,AMD(超威半导体)、博通(Broadcom)、谷歌(Google)和英特尔(Intel)等企业将能采用行业标准技术(而非英伟达的封闭方案)开发同类解决方案,这意味着更低的部署成本。
本周二,超高速加速器互联联盟正式发布UALink 1.0最终技术规范,标志着联盟成员可立即启动支持该技术的芯片流片。这项面向AI与高性能计算加速器的新型互联技术获得了包括AMD、苹果(Apple)、博通和英特尔在内的业界广泛支持,有望成为此类硬件互联的事实标准。
UALink 1.0规范定义了加速器间的高速低延迟互联方案,单通道支持212.5 GT/s信号速率(含前向纠错与编码开销),实现最高200 GT/s双向数据传输速率。互联可配置为x1、x2或x4模式,四通道链路在收发双向均可达到800 GT/s总带宽。
单个UALink系统最多支持1,024个加速器(GPU或其他类型)通过交换机组网,每个加速器分配专属端口及10位唯一标识符以实现精准路由。UALink线缆长度优化至4米以内,搭载64B/640B数据负载时可实现小于1微秒的往返延迟。该技术能在一至四个机架范围内保持确定性性能表现。
协议栈包含四大硬件优化层:物理层采用标准以太网组件(如200GBASE-KR1/CR1),并通过改进前向纠错机制降低延迟;数据链路层将交易层的64字节数据单元打包为640字节传输块,应用循环冗余校验及可选重试逻辑,同时负责设备间消息传递并支持UART式固件通信;交易层采用压缩寻址技术,在实际工作负载下可实现高达95%的协议效率,支持加速器间的直接内存读写及原子操作,确保本地与远程内存空间的访问顺序。
针对现代数据中心需求,UALink协议集成安全与管理功能:UALinkSec提供硬件级流量加密认证,防范物理篡改,并通过租户可控的可信执行环境(如AMD SEV、Arm CCA和英特尔TDX)支持机密计算;规范允许通过交换机配置实现“虚拟算力舱”划分,使多个租户工作负载能在共享基础设施中并行运行。
UALink算力舱将通过PCIe和以太网等标准接口,由专用控制软件与固件代理实施管理,全面支持REST API接口、遥测监控、工作负载控制及故障隔离。
联盟主席彼得·奥努弗里克(Peter Onufryk)表示:“随着UALink 200G 1.0规范的发布,成员企业正积极构建开放的纵向扩展加速器互联生态。我们期待见证即将面世的多样化解决方案推动未来AI应用发展。”
目前英伟达凭借其强大生态占据AI加速器市场主导地位,其Blackwell NVL72解决方案通过NVLink技术实现单个机架72颗GPU互联,跨机舱集群更可扩展至576颗B200 GPU。根据规划,英伟达明年推出的Vera Rubin平台将实现单机架144颗GPU,而2027年的Rubin Ultra架构更将单机架GPU数量提升至576颗。