本周似乎成为了小型AI模型的发布周。非营利性AI研究机构AI2(艾伦人工智能研究所)于周四发布了参数规模为10亿的Olmo 2 1B模型,该机构宣称该模型在多项基准测试中表现优于谷歌(Google)、Meta和阿里巴巴(Alibaba)的同规模产品。参数(有时称为权重)是决定模型行为的内在要素。
这款开源模型采用宽松的Apache 2.0许可协议,已部署在AI开发平台Hugging Face上。与多数模型不同,由于AI2公开了开发所用的完整代码与数据集(Olmo-mix-1124和Dolmino-mix-1124),研究者可从零开始复现Olmo 2 1B。
虽然小型模型的性能无法与庞然大物们比肩,但其优势在于无需高端硬件即可运行。这使得受限于普通电脑配置的开发者和爱好者也能轻松使用。近期小型模型呈井喷之势,从微软(Microsoft)的Phi 4推理系列到Qwen的2.5 Omni 3B纷纷亮相。包括Olmo 2 1B在内,这些模型都能在现代笔记本电脑甚至移动设备上流畅运行。
据AI2披露,Olmo 2 1B的训练数据包含4万亿token,来源涵盖公开资料、AI生成内容和人工创作内容。Token是模型处理的基础数据单元,每百万token约相当于75万单词量。在算术推理测试GSM8K中,该模型得分超越谷歌Gemma 3 1B、Meta Llama 3.2 1B和阿里巴巴Qwen 2.5 1.5B。在评估事实准确性的TruthfulQA测试中,其表现同样优于这三款竞品。
不过AI2也发出警示,与所有AI模型类似,Olmo 2 1B可能生成包括有害内容、“敏感”信息及事实错误陈述在内的“问题输出”。鉴于此,该机构不建议将其部署于商业场景。