开放人工智能研究中心(OpenAI)近日在开发者接口中上线了o1推理模型的升级版本——o1-pro模型。据官方介绍,这款新模型通过投入更多计算资源,致力于提供"更稳定优质的回答"。目前该测试版仅限特定开发者使用,要求开发者账户在OpenAI接口服务中的消费额不低于5美元,但其定价标准引发行业关注。
根据官方定价方案,每处理100万输入token(约合75万个单词)收费150美元,而生成每百万token则需支付600美元。这一收费标准不仅达到GPT-4.5模型输入费用的两倍,更是常规o1模型生成价格的十倍。
面对高昂定价,OpenAI强调新模型的性能提升具有说服力。公司发言人向TechCrunch(TechCrunch)透露:"o1-pro通过增加计算量进行深度思考,专门针对复杂问题提供优化解决方案。在收到开发者社区的强烈需求后,我们决定开放接口测试。"
不过自去年12月面向ChatGPT Pro订阅用户开放测试以来,初期用户反馈显示该模型仍存在改进空间。测试者发现它在解数独题时表现欠佳,甚至会被简单的视觉错觉问题误导。值得注意的是,OpenAI去年末的内部测试数据显示,o1-pro在编程和数学领域仅较标准版o1有小幅提升,但其答案稳定性确实有所增强。