为更积极地与谷歌(Google)等AI竞争对手抗衡,OpenAI正式推出弹性处理(Flex processing)API方案——该选项通过降低响应速度并允许“偶发性资源不可用”,为用户提供更低的AI模型使用价格。
OpenAI表示,弹性处理功能目前处于测试阶段,适用于其最新发布的o3和o4-mini推理模型,主要面向模型评估、数据增强和异步工作负载等低优先级“非生产型”任务。
该方案能精确降低50%的API成本。以o3模型为例,弹性处理的输入token价格降至每百万3620元人民币(500美元)/输出token每百万14480元人民币(2000美元),而标准方案分别为每百万7240元人民币(1000美元)和28960元人民币(4000美元)。对于o4-mini模型,弹性处理将输入token价格从每百万796元人民币(110美元)降至398元人民币(55美元),输出token从每百万3186元人民币(440美元)降至1593元人民币(220美元)。
此次新方案推出之际,前沿AI模型价格持续攀升,而竞争对手正发布更具性价比的预算型模型。就在本周四,谷歌推出了Gemini 2.5 Flash推理模型,该模型以更低的输入token成本实现了与深度求索(DeepSeek)R1相当甚至更优的性能。
OpenAI在向客户发送的弹性定价启动邮件中同时透露,其使用层级体系中1-3级的开发者需完成新引入的身份验证流程才能访问o3模型。该层级根据用户在OpenAI服务中的消费金额进行划分。o3及其他模型的推理摘要和流式API支持功能也将在验证通过后开放。
此前OpenAI曾表示,身份验证机制旨在阻止不良行为者违反其使用政策。