尽管WWDC主要围绕其操作系统即将采用的全新视觉设计语言——液态设计(Liquid design)展开,但苹果公司同时发布了专为端云协同打造的下一代AI基础模型。活动结束后,这家科技巨头通过一份详尽的技术报告,向用户和技术社区深度揭秘其模型的训练与优化过程,此举有助于外界更清晰地理解苹果的AI战略布局。报告着重强调,公司在模型训练过程中始终以隐私保护运行效率为核心原则。

Cover Image

在人工智能领域声势渐弱的苹果,此次发布了名为《Apple Intelligence基础语言模型技术报告(2025)》的专项文件,全面披露了最新AI模型的关键技术细节。该文档涵盖模型架构、训练周期、后期优化等全流程,并详细阐述了如何通过技术创新在提升效能的同时坚守隐私底线。

此前苹果虽向开发者开放了具备30亿参数的端侧AI模型,但其稀疏架构存在明显局限。根据报告,新模型采用分块设计提升效率:Block 1包含超过60%的核心组件——Transformer层,负责语言理解与应答生成;Block 2则通过移除占用大量内存的键值投影技术,实现内存消耗降低38%并加速响应。这家公司持续探索突破硬件限制的方案,早年曾试验在内存不足的设备上运行超大规模模型,虽未采用该方案,但始终致力于解决此类技术难题。

在服务器端,苹果为其隐私云计算系统(Private Cloud Compute)定制了名为并行轨道专家混合(PT-MoE)的创新架构。该技术将大模型拆分为多个专家模块,执行任务时仅激活相关领域的专家单元,既节省算力又提升效率。公司还研发了并行轨道Transformer新型架构,通过多轨道独立运作、关键节点协同的模式消除系统延迟。

针对语言支持受限这一痛点,新版模型显著强化了多语言能力:非英语训练数据占比从8%提升至30%(含真实与AI生成内容),使写作工具等功能获得更广泛的语言适配。训练数据主要来自其网络爬虫Applebot采集的公开网页内容,但严格遵循网站反爬协议。此外,公司综合运用授权出版内容、合成数据(特别针对图像语言任务与代码场景)以及超100亿组图像-文本对(含截图与手写笔记)进行多模态训练,并通过自有模型生成更丰富的标注文本。

苹果的AI训练策略展现出清晰的技术路线:在保持系统强大功能与多元适用性的同时,始终恪守其核心价值观——隐私保护


文章标签: #苹果 #AI模型 #隐私保护 #多语言 #效率

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。