OpenAI发布了两款专为消费级显卡优化的开源权重语言模型。根据官方博文披露,新推出的gpt-oss-120bgpt-oss-20b分别针对单块80GB显存显卡和仅16GB内存的边缘设备进行了优化。这两款模型均采用混合专家(Mixture-of-Experts)架构的Transformer——该技术架构因DeepSeek R1而广为人知。

Cover Image

尽管主打消费级硬件适配,两款模型仍支持高达131,072的上下文长度,创下本地推理领域的新纪录。其中gpt-oss-120b每令牌激活51亿参数,gpt-oss-20b则为36亿参数。二者均采用密集与局部带状稀疏交替的注意力模式,并配备分组大小为8的组多查询注意力机制。

新模型采用思维链推理架构,在推理能力、运行效率和实际应用间实现平衡。这是自GPT-2以来OpenAI首次发布开源权重模型,其开放特性类似于开源软件,将显著降低开发者使用门槛。OpenAI表示,选择开源最新模型旨在促进新兴市场等难以采用专有模型领域的普及。

据测试数据显示,gpt-oss-120b在核心推理基准测试中与OpenAI即将退役的o4-mini语言模型表现相当,但仅需单块80GB显存显卡即可运行。而gpt-oss-20b在保持与o3-mini相近性能的同时,仅需16GB内存设备即可部署。

OpenAI的评估中,gpt-oss-120b于竞技编程、通用问题解决和工具调用场景超越o3-mini并匹敌o4-mini,更在健康咨询和竞技数学领域展现优势。gpt-oss-20b则全面复现了相对o3-mini的基准测试表现。

这两款新模型现已基于Apache 2.0开源协议发布。OpenAI与包括ONNX RuntimeAzureAWSOllama在内的多个平台达成合作,为其提供多环境支持。


文章标签: #开源 #语言模型 #OpenAI #显卡 #推理

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。