苹果正日益依赖谷歌的“拐杖”来为其云端新版Siri提供动力。我们现在已知晓这款定制版Gemini模型的部分规格——它预计将大幅增强Siri的能力。

Cover Image

马克·古尔曼(Mark Gurman)报道,苹果计划采用一款拥有1.2万亿参数的定制Gemini AI模型来驱动即将面世的新版Siri。这款定制Gemini模型将“远胜”于苹果当前在云端驱动Siri所用的、仅15亿参数的定制AI模型。

在敲定使用谷歌Gemini的定制版本之前,苹果曾测试过OpenAI的ChatGPT和Anthropic的Claude大语言模型。该定制Gemini模型将用于处理更复杂的用户请求,这些请求将卸载至苹果“私有云计算”框架下的云端进行处理,该框架将通过使用加密和无状态数据来保护用户隐私。

根据古尔曼的说法,按照目前正在最终确定的协议条款,苹果每年将向谷歌支付约10亿美元,以使用谷歌的专有AI技术。这仅仅是这两家科技巨头持续交易关系中的最新一笔。毕竟,谷歌每年已向苹果支付200亿美元,以确保其在Safari浏览器及其他苹果服务中的默认搜索引擎特权。

回到主题,苹果甚至为其当前修复Siri的努力(主要借助第三方模型)设定了一个内部代号——Glenwood。这些工作目前由Vision Pro头显的创造者迈克·罗克韦尔(Mike Rockwell)软件工程主管克雷格·费德里吉(Craig Federighi)牵头负责。

需要注意的是,即将到来的Siri革新将包含三个主要组成部分:

  • 查询规划器——这是Siri的决策层,负责决定满足给定用户请求的最有效途径,可用选项包括网页搜索、访问个人数据(如日历条目或照片),或通过“App Intents”使用第三方应用程序。“App Intents”本身是一个框架,使特定应用程序可被Siri发现和使用,允许用户执行某些应用内操作而无需实际打开该应用。

  • 知识搜索系统——Siri将获得一个通用知识数据库,用于回答琐碎查询,而无需借助ChatGPT、其他第三方AI集成或基于网络的结果。

  • 摘要生成器——这是“苹果智能”中的一个核心工具,允许Siri利用ChatGPT等第三方AI模型来总结给定的文本或音频片段,其功能包括通知摘要、Safari网页摘要、写作工具等。

在苹果不断发展的架构下,来自谷歌的定制Gemini模型将处理Siri的查询规划器摘要生成器功能,而将知识搜索系统留给苹果的设备端大语言模型处理。关键的是,这种合作伙伴关系不会将谷歌的搜索AI置于苹果庞大生态系统的顶端位置。

当然,苹果并不打算无限期使用谷歌的Gemini模型,目前仍在努力开发自家的解决方案。不过在此期间,Gemini模型将作为一个关键的“拐杖”,帮助苹果随iOS 26.4推出新版Siri,为其定制语音助手带来应用内操作、个人情境感知和屏幕内容感知能力。


文章标签: #苹果 #谷歌 #Siri #AI模型 #Gemini

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。