苹果似乎已承认其内部改造Siri策略的失败,目前正转向与谷歌(Google)合作,委托其设计基于Gemini的定制大语言模型,为云端新版Siri提供技术支持。

据权威爆料人、彭博社(Bloomberg)的马克·古尔曼(Mark Gurman)在其最新通讯报道中透露,这家库比蒂诺巨头在开发现行Siri升级功能所需的内部AI模型方面似乎已举旗认输——这些功能均被纳入“苹果智能(Apple Intelligence)”体系。
报道称,苹果现正付费委托谷歌为其“私有云计算(Private Cloud Compute)”框架开发定制化GeminiAI模型。在该架构下,相对简单的AI任务由设备自身算力处理,而复杂任务则通过加密无状态数据传输至苹果私有云服务器执行。
值得注意的是,即将推出的Siri升级包含三大核心组件:
查询规划器——作为Siri的决策层,它将为用户请求选择最高效的响应路径,可选方案包括网络搜索、访问日历条目或照片等个人数据,或通过“App Intents”框架调用第三方应用(该框架能使应用被Siri识别并操控,实现免启动应用即可完成特定操作)。
知识检索系统——Siri将配备通用知识数据库,可直接回答常识性问题,无需依赖ChatGPT、其他第三方AI服务或网络搜索结果。
摘要生成器——作为苹果智能的核心工具,允许Siri调用ChatGPT等第三方AI模型对文本或音频片段进行归纳总结,应用场景涵盖:
通知摘要
邮件与信息摘要
Safari网页摘要
写作辅助工具
音频内容摘要
在苹果智能的演进架构中,所有设备端AI处理将采用苹果自研基础模型或ChatGPT等集成第三方模型。复杂查询则通过加密无状态数据发送至苹果私有服务器,由谷歌定制的GeminiAI模型进行处理,以此保障用户隐私。
此前彭博社曾于2024年8月报道,苹果工程师难以确保Siri在跨应用场景及银行等关键场景中的表现达标。此次合作显然旨在弥补其自身AI技术的关键短板。当然,苹果仍会将改造后的Siri作为核心自有技术进行推广,强调其采用苹果后端服务器与定制化交互界面。
据悉,苹果正致力于在2026年春季的iOS更新(预计为iOS 26.4)中引入多项关键功能,包括:
应用内操作
Siri可通过语音指令在支持的应用中执行情境化任务,例如向购物清单添加商品、通过通讯应用发送消息或播放音乐。
个人情境感知
Siri将能运用个人数据提供定制服务,例如检索信息应用以定位文字对话中提及的特定播客内容。
屏幕内容感知
Siri即将具备理解屏幕显示内容的能力,并据此执行一系列自主代理任务。



