英国Steam用户需绑定信用卡,解锁成人内容游戏
阅读全文

锤刻创思寰宇网
Anthropic正在对其用户数据处理方式实施重大变革,要求所有Claude用户在9月28日前决定是否允许将其对话内容用于人工智能模型训练。尽管该公司在被问及政策变动原因时仅引导我们参阅其博客公告,但我们已形成独立分析。
首先需要明确变化核心:此前Anthropic从未将消费者聊天数据用于模型训练,如今却计划利用用户对话及编程会话数据训练AI系统,并宣布未选择退出的用户数据保留期限将延长至五年。
这项调整堪称颠覆性变革。此前Anthropic向消费级产品用户承诺,其提示词和对话输出将在30天内从后端自动删除——除非法律或政策要求延长保留,或内容被标记为违规(此类情况最多保留两年)。新政策适用于Claude Free、Pro和Max用户(含Claude Code使用者),而使用Claude Gov、Claude for Work、Claude for Education或API接入的企业客户不受影响——这种企业客户数据豁免策略与OpenAI的做法如出一辙。
政策变动背后存在多重动因。在官方公告中,Anthropic将变革包装成“用户选择权”,宣称通过数据训练可“提升模型安全性,使有害内容检测系统更精准,减少误标无害对话”,同时帮助“未来Claude模型提升编程、分析与推理能力,最终为所有用户创造更优质模型”。简言之,即“通过贡献数据获得更好服务”。
但真相或许远非如此无私。与所有大型语言模型公司相同,Anthropic对训练数据的需求远超过用户对品牌的好感度。获取数百万条真实用户交互数据,将为其对抗OpenAI和Google等竞争对手提供关键优势。
更深层来看,此举反映了行业数据政策的整体转向。当前OpenAI正因《纽约时报》等出版机构的诉讼,被法院强制要求无限期保留所有消费者ChatGPT对话(含已删除内容)。其首席运营官Brad Lightcap称此命令“与对用户的隐私承诺根本性冲突”。值得注意的是,企业客户与签订零数据保留协议的用户仍受保护。
最令人担忧的是,这些频繁变动的政策正造成用户认知混乱。多数人尚未意识到:ChatGPT界面中的“删除”开关实际上并未真正清除数据;而Anthropic的新政策实施方式同样存在设计陷阱——现有用户会收到弹出窗口,显眼的黑色“接受”按钮下方藏着自动开启的训练权限微调开关,这种设计极易导致用户未察觉情况下同意数据共享。
隐私专家长期警告:AI领域的复杂性使真正意义上的用户同意几乎无法实现。拜登政府任内的联邦贸易委员会曾明确警示,若AI公司“暗中修改服务条款或隐私政策,或将披露内容隐藏在超链接、法律术语或小字文本中”,将面临执法行动。目前该委员会五名委员中仅三人履职,其监管力度能否持续仍是未知数。