英特尔BZM2芯片重获新生,开启开源挖矿新时代
阅读全文

锤刻创思寰宇网
专注于儿童安全的非营利组织常识媒体(Common Sense Media)于周五发布了对谷歌Gemini人工智能产品的风险评估报告。该机构发现,虽然谷歌AI明确告知儿童它是计算机而非朋友——这一点有助于避免情感脆弱群体产生妄想思维和精神疾病——但在其他多个方面仍有改进空间。
值得注意的是,常识媒体指出Gemini的“13岁以下”和“青少年体验”两个层级本质上仍是成人版Gemini,仅额外添加了部分安全功能。该机构认为,要真正为儿童提供更安全的AI产品,必须从设计之初就将儿童安全作为核心考量。
分析显示,Gemini仍可能向儿童提供他们尚未准备好接受的“不当及不安全”内容,包括涉及性、毒品、酒精的信息以及其他不安全的心理健康建议。后者尤其令家长担忧——据报道,人工智能在最近几个月发生的多起青少年自杀事件中扮演了推波助澜的角色。OpenAI正面临首起非正常死亡诉讼:一名16岁男孩在持续数月向ChatGPT咨询自杀计划并成功绕过其安全防护后结束生命。此前,人工智能伴侣开发商Character.AI也因青少年用户自杀事件被起诉。
此次评估发布之际,有消息称苹果正考虑采用Gemini作为大型语言模型,为明年推出的AI版Siri提供技术支持。若苹果未能妥善解决安全隐患,这可能使更多青少年面临风险。
常识媒体还指出,Gemini的儿童及青少年产品忽视了年轻用户与年长用户对指导信息和内容的需求差异。尽管添加了安全过滤器,这两个版本仍被总体评为“高风险”级别。
“Gemini在基础层面做得不错,但在细节处理上存在缺陷,”常识媒体人工智能项目高级总监罗比·托尼(Robbie Torney)在向TechCrunch提供的声明中表示,“面向儿童的AI平台应该因材施教,而不是对不同发展阶段的孩子采取一刀切的方法。要使AI对儿童既安全又有效,必须从设计阶段就考虑他们的需求和发展特点,而不能只是简单修改成人版产品。”
谷歌对评估结果提出异议,同时承认其安全功能正在持续改进。该公司向TechCrunch表示已为18岁以下用户制定专门政策和防护措施,通过红队测试和外部专家咨询不断完善保护机制,但承认Gemini部分回应未达预期效果,已追加安全措施。谷歌强调(如同常识媒体已注意到)其具备防护机制防止模型进行可能模拟真实关系的对话,并指出该报告似乎引用了未向18岁以下用户开放的功能,但由于未获知测试具体问题,无法确认真实性。
常识媒体此前已对OpenAI、Perplexity、Claude和Meta AI等人工智能服务进行评估,认定Meta AI和Character.AI“不可接受”(风险程度已达严重级别而非仅高风险),Perplexity被评为高风险,ChatGPT被标记为“中等风险”,而针对18岁以上用户的Claude则属于最小风险等级。