Discord公司于2月9日宣布,将在其平台上将面向青少年的安全保护功能设为默认设置。预计从3月上旬开始在全球范围内逐步推行。

Discord是一款支持文字聊天、语音通话和屏幕共享等功能的应用程序。其特点是用户可以创建自己感兴趣主题的服务器,并吸引其他用户加入。除了PC和智能手机,该应用也为PS和Xbox提供了联动功能。
此次引入的年龄验证流程旨在加强对青少年用户的保护。具体功能如下。若要解除这些限制,需要通过年龄验证确认为成年人。
内容过滤器:解除对敏感内容的模糊处理或关闭此设置,需要成年人年龄验证。
年龄限制空间:只有通过成年人年龄验证的用户才能访问设有年龄限制的频道、服务器或应用命令。
消息请求收件箱:来自可能不认识的用户的私信,默认会被分流到一个单独的收件箱,只有通过成年人年龄验证的用户才有权更改此设置。
好友请求警告:对于来自可能不认识的用户的好友申请,系统会显示警告。
舞台发言限制:在服务器内的舞台上发言,仅限于通过成年人年龄验证的用户。
官方宣称,年龄验证流程在设计上尊重用户的隐私和选择。在实施初期,用户可以选择通过视频拍摄自己的面部进行年龄估计,或者提交身份证件,未来预计会提供更多选择。
在大多数情况下,用户只需完成一次流程,就会被分配到已验证的年龄组。不过,如果需要补充信息,有时也可能被要求进行多个步骤。用户可以对被分配的年龄组提出异议。此外,官方也说明了在隐私保护方面的措施,例如通过面部进行年龄估计时,拍摄的视频不会离开用户设备,提交的身份证件也会被迅速删除。
另外,Discord还告知将引入一个名为“年龄推断模型”的新系统,该系统在后台运行。据称,该机制有助于判断账户是否属于成年人,而无需频繁要求用户进行年龄验证。
此外,Discord还将引入名为“Discord青少年委员会”的机制。这是一个由10至12名青少年用户组成的咨询机构,旨在让Discord在塑造青少年体验时融入“真实的青少年视角”。官方解释称,通过将青少年用户的观点直接纳入决策过程,可以在平衡隐私与自主性的同时,构建安全功能。
此次引入的新年龄验证流程已于2025年在英国和澳大利亚进行试点,此次将面向全球实施。值得一提的是,英国于2023年制定了《在线安全法》,该法强制要求在线服务提供商采取有效的年龄验证和访问限制措施,以防止儿童轻易接触到对他们有害的内容,例如成人内容。该法也是促使大型模组平台“Nexus Mods”等严格化成人内容标签规定的原因之一。
即使抛开此类法律不谈,重视未成年人安全保护的举措也在各公司的在线服务中全面推进。此次Discord的流程也被解释为是其长期举措的一部分。然而,年龄验证流程需要个人信息这一点,自试点阶段起就引发了担忧。此外,在去年10月,还发生了约7万人的政府签发身份证照片等数据泄露的事件。Discord方面虽然强调会谨慎处理个人信息,但为解除面向青少年的功能限制而必须进行年龄验证的机制在全球推行,似乎也引发了反对声音。对于计划在3月上旬实施的这一举措,其后续动向也备受关注。



