苹果似乎已承认其内部改造Siri策略的失败,目前正转向与谷歌(Google)合作,委托其设计基于Gemini的定制大语言模型,为云端新版Siri提供技术支持。

Cover Image

据权威爆料人、彭博社(Bloomberg)马克·古尔曼(Mark Gurman)在其最新通讯报道中透露,这家库比蒂诺巨头在开发现行Siri升级功能所需的内部AI模型方面似乎已举旗认输——这些功能均被纳入“苹果智能(Apple Intelligence)”体系。

报道称,苹果现正付费委托谷歌为其“私有云计算(Private Cloud Compute)”框架开发定制化GeminiAI模型。在该架构下,相对简单的AI任务由设备自身算力处理,而复杂任务则通过加密无状态数据传输至苹果私有云服务器执行。

值得注意的是,即将推出的Siri升级包含三大核心组件:

查询规划器——作为Siri的决策层,它将为用户请求选择最高效的响应路径,可选方案包括网络搜索、访问日历条目或照片等个人数据,或通过“App Intents”框架调用第三方应用(该框架能使应用被Siri识别并操控,实现免启动应用即可完成特定操作)。

知识检索系统——Siri将配备通用知识数据库,可直接回答常识性问题,无需依赖ChatGPT、其他第三方AI服务或网络搜索结果。

摘要生成器——作为苹果智能的核心工具,允许Siri调用ChatGPT等第三方AI模型对文本或音频片段进行归纳总结,应用场景涵盖:

  • 通知摘要

  • 邮件与信息摘要

  • Safari网页摘要

  • 写作辅助工具

  • 音频内容摘要

苹果智能的演进架构中,所有设备端AI处理将采用苹果自研基础模型或ChatGPT等集成第三方模型。复杂查询则通过加密无状态数据发送至苹果私有服务器,由谷歌定制的GeminiAI模型进行处理,以此保障用户隐私。

此前彭博社曾于2024年8月报道,苹果工程师难以确保Siri在跨应用场景及银行等关键场景中的表现达标。此次合作显然旨在弥补其自身AI技术的关键短板。当然,苹果仍会将改造后的Siri作为核心自有技术进行推广,强调其采用苹果后端服务器与定制化交互界面。

据悉,苹果正致力于在2026年春季的iOS更新(预计为iOS 26.4)中引入多项关键功能,包括:

应用内操作

Siri可通过语音指令在支持的应用中执行情境化任务,例如向购物清单添加商品、通过通讯应用发送消息或播放音乐。

个人情境感知

Siri将能运用个人数据提供定制服务,例如检索信息应用以定位文字对话中提及的特定播客内容。

屏幕内容感知

Siri即将具备理解屏幕显示内容的能力,并据此执行一系列自主代理任务。


文章标签: #苹果 #谷歌 #Siri #Gemini #AI合作

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。