苹果公司本周一公布了其“差分隐私”技术方案,该技术将允许用户自主选择是否参与设备端Apple Intelligence(苹果智能)的模型训练。这项技术与该公司此前失败的CSAM(儿童性虐待材料)检测系统存在惊人的相似性。

Cover Image

差分隐私技术是苹果在2016年随iOS 10系统首次公开采用的隐私保护方案。该技术通过在采样数据中注入随机噪声,有效防止数据收集者追溯信息来源。根据苹果机器学习博客的最新说明,该公司正计划运用差分隐私机制收集匿名用户数据来训练其人工智能系统,所有数据采集都将遵循自愿参与原则,且确保无法关联到具体用户。

彭博社报道指出,苹果正在研究如何利用基于真实用户信息生成的合成数据进行模型训练。与直接从iPhone提取原始数据到服务器进行分析的传统方式不同,苹果采用的差分隐私技术通过数据脱敏处理彻底切断了数据溯源的可能性。更关键的是,所有用户数据始终保留在设备本地——系统仅采集经噪声处理的统计结果进行模型优化。

数据去标识化分析技术

差分隐私概念在苹果内部至少可追溯至2006年,但直到2016年才成为其公开的隐私保护招牌。这项技术最初用于分析用户表情符号使用习惯、完善本地词典、优化应用深层链接以及增强备忘录搜索功能。

苹果宣布从iOS 18.5开始,差分隐私技术将率先应用于Genmoji功能的用户数据分析与模型训练。系统通过识别常见指令模式(例如“戴着牛仔帽的恐龙”这类热门提示词)来提升AI响应质量。由于数据中注入了随机噪声且需要数百个片段匹配才能触发分析,系统根本无法还原任何具有个人特征的原始指令。所有分析仅产生“是/否”的二进制反馈,全程不提取具体用户数据。

该技术体系还将拓展至Image Playground(图像游乐场)Image Wand(图像魔杖)Memories Creation(回忆生成)Writing Tools(写作工具)等功能。针对文本生成这类涉及更复杂指令的场景,苹果开发了创新的合成数据技术——通过比对经算法转换的合成文本与用户设备本地的邮件特征值,找出最能代表人类真实交流模式的虚拟样本用于模型训练。整个过程同样严格遵循“数据不离设备”原则。

似曾相识的技术争议

这项新系统难免让人联想到苹果2021年夭折的CSAM检测计划。两者都涉及将用户数据转换为可比对哈希值的本地化处理,但根本差异在于:CSAM检测可能导致苹果获知用户相册内容,而当前的AI训练系统则被设计为永远无法还原原始数据。

尽管CSAM检测系统当时也强调隐私保护(采用名为“私有集合交集”的加密比对技术),但维权组织担忧该技术可能被专制政府滥用为内容审查工具。在舆论压力下,苹果最终放弃了该计划。需要明确的是,虽然两项技术存在表面相似性,但差分隐私特有的数据混淆机制是CSAM系统所不具备的。

自主选择退出机制

虽然新系统的隐私保护设计已较为完善,仍可能有用户拒绝参与任何形式的数据贡献。目前该功能尚未实装,苹果表示将在iOS 18.5版本中开放测试。用户可通过“设置-隐私与安全性-分析与改进”菜单,关闭“共享iPhone与手表分析”选项来退出AI训练计划。


文章标签: #苹果 #差分隐私 #AI训练 #隐私保护 #设备端

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。