英伟达(NVIDIA)的开源“Nemotron 3 Super”AI模型在EnterpriseOps-Gym排行榜上登顶,展现了该公司强大的软件实力。凭借其开源模型Nemotron 3 Super,英伟达(NVIDIA)在AI硬件和软件排行榜上双双名列前茅,独占鳌头。

今年3月,英伟达(NVIDIA)发布了Nemotron 3 Super,这是一款拥有120B参数(其中12B为活跃参数)的AI模型。基于混合MoE架构,该模型旨在提供相较于前代Nemotron Super模型5倍的吞吐量,并通过原生的1M词元上下文窗口处理长文本,为智能体提供长期记忆,以实现对齐且高精度的推理。
Nemotron 3 Super模型的一些亮点包括:
潜在MoE:通过在词元到达专家层之前对其进行压缩,以相同的推理成本调用4倍数量的专家。
多词元预测(MTP):在一次前向传播中预测多个未来词元,大幅缩短长序列的生成时间,并实现内置的推测解码。
混合Mamba-Transformer骨干网络:融合了Mamba层(用于序列效率)和Transformer层(用于精确推理),在实现4倍内存和计算效率提升的同时,提供更高的吞吐量。
原生NVFP4预训练:专为英伟达(NVIDIA)Blackwell架构优化,显著降低内存需求,并在英伟达(NVIDIA)B200上将推理速度提升至英伟达(NVIDIA)H100 FP8推理的4倍,同时保持精度。
多环境强化学习(RL):使用英伟达(NVIDIA)NeMo Gym和英伟达(NVIDIA)NeMo RL,在21种环境配置下进行强化学习后训练,训练过程中使用了超过120万次环境展开。
今天,英伟达(NVIDIA)在EnterpriseOps-Gym排行榜上公布了Nemotron 3 Super的首批及最新基准测试成绩。该基准测试评估了各模型在包含512个功能工具的完全交互环境中,完成1,150项任务的性能。这要求智能体能够协调多个企业系统和工具,以完成单一工作流。
在开源模型排行榜上,英伟达(NVIDIA)的Nemotron 3 Super以27.3的平均得分登顶。该模型在TEAMS、Email和Hybrid工作流中领先,同时在CSM、ITSM和Drive工作流中也极具竞争力。凭借这一表现,英伟达(NVIDIA)的AI模型击败了目前位居第二的Kimi-K2.5和位居第三的DeepSeek v3.2。GPT-OSS-120B模型则位列第五。
英伟达(NVIDIA)的Nemotron 3系列开源AI模型包括Nano、Super和Ultra。该公司还推出了Nemotron 3 Nano Omni,可实现9倍的智能体AI吞吐量提升。凭借其最新的AI模型,英伟达(NVIDIA)继续证明了它是一个完整的AI堆栈提供商,其硬件和软件能力均超越竞争对手,这也使得全面采用英伟达(NVIDIA)的解决方案成为AI领域的最佳选择。



