苹果公司近日更新隐私政策引发争议:用户提交iOS测试版系统漏洞报告时若附带诊断文件等附件,将被迫同意苹果使用上传内容来训练其人工智能系统,且无法选择退出。
本周一苹果宣布推出全新的人工智能训练计划(需用户主动选择加入)。该计划允许用户授权苹果调用其iPhone中的内容来训练AI模型,所有训练过程均在设备端完成,并采用名为“差分隐私”的技术保护用户数据安全。苹果强调,在Image Playground图像生成和Genmoji表情符号训练中,通过引入算法噪声确保用户隐私数据不会被完整传输,使得单个数据点无法溯源。
尽管官方声称这是自愿参与计划,开发者约阿希姆(Joachim)在社交媒体指出,反馈应用(Feedback)的隐私声明已新增AI训练条款。更新后的隐私声明明确标注:“苹果可能会使用您提交的内容改进产品服务,包括训练Apple Intelligence及其他机器学习模型。”发现这一变化的开发者批评苹果未提供退出选项,用户唯一的选择就是彻底放弃提交漏洞报告。他愤怒谴责苹果公司将这条款“隐藏在隐私声明的其他信息中”,强调这完全违背用户意愿。
目前争议焦点集中于诊断文件强制授权条款。当用户通过Feedback应用提交漏洞报告时,若附加系统诊断文件等资料,必须同步授权苹果使用这些内容进行AI训练。虽然常规的AI训练计划允许用户通过设置→隐私与安全性→分析与改进,关闭“共享iPhone与手表分析”选项来退出设备端训练,但该设置对漏洞报告中的附件授权并不生效。
业内人士分析指出,这种强制授权可能影响开发者社区的积极性。虽然苹果声称采用差分隐私技术保护数据安全,但当用户发现提交漏洞必须同意AI训练时,即便存在隐私保护措施,仍可能产生抵触情绪。目前尚不清楚这项政策调整会引发多大范围的反响,但已有多个开发者论坛出现相关讨论。