随着人工智能技术越来越普及,科技公司正更加重视该技术的责任使用规范,并加强对平台信息传播的管理。用户在使用这些应用程序时,常常过度依赖其功能,导致在公共动态中发布过多个人信息。为解决这一问题,Meta(原Facebook)近日为其AI应用程序增设了免责声明警示标识,特别针对敏感或隐私信息的过度分享行为发出提醒。

Cover Image

面对监管机构对AI伦理日益严格的要求,以及用户无意间在AI平台上泄露深度个人隐私所引发的舆论争议,Meta为避免法律纠纷和声誉受损,紧急推出更新版本。据《商业内幕》披露,该AI应用因大量私密尴尬内容被公开分享而被称为“令人沮丧的场所”——许多用户未意识到其对话内容会出现在面向公众的“发现”信息流中。

自今年四月Meta推出AI应用以来,平台上持续出现涉及逃税讨论、改善肠道功能等私密对话的公开帖子。直到近期,这些怪异对话的截图在社交媒体传播后,才引发公众和科技巨头的关注。隐私专家特别指出,与其他AI聊天机器人不同,Meta默认设置公开社交信息流的做法存在重大隐患。

曾与Meta合作的安全专家蕾切尔·托巴克(Rachel Tobac)立即指出:“用户已形成对AI聊天机器人的固定认知模式,绝不会预期自己的对话提示会出现在社交媒体式的发现信息流中——这与其他工具的运行机制截然不同。”与此同时, Mozilla基金会也呼吁Meta调整应用界面设计,并在每次内容公开时明确提示用户。

Meta迅速响应这些诉求,现已为AI应用中公开分享的对话添加一次性警示标签:“您发布的提示词将公开可见,并可能被推荐至其他Meta应用。请勿分享个人或敏感信息。”虽然当前措施尚属被动应对,但将隐私保护和用户控制作为核心体验进行全面改造,才是Meta真正需要迈出的关键步伐。


文章标签: #人工智能 #隐私保护 #Meta #数据安全 #科技伦理

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。