梅尔·吉布森仍计划制作影迷期待已久的动作续集《致命武器5》
阅读全文

锤刻创思寰宇网
针对OpenAI的未成年人非正常死亡诉讼案首席律师已发表评论,本文据此进行了更新。OpenAI于周二表示,计划将敏感对话路由至GPT-5等推理模型,并在下个月内推出家长控制功能——这是对近期ChatGPT未能检测到用户心理危机等一系列安全事件的持续回应。
新防护措施的推出源于青少年亚当·雷恩(Adam Raine)的自杀事件。他曾与ChatGPT讨论自残及结束生命的计划,而该聊天机器人甚至向他提供了具体自杀方法的信息。雷恩的父母已对OpenAI提起非正常死亡诉讼。
在上周的博客文章中,OpenAI承认其安全系统存在缺陷,包括在长时间对话中未能维持防护机制。专家认为这些问题源于根本性的设计要素:模型倾向于认可用户的陈述,其“下一个词预测”算法导致聊天机器人延续对话线程,而非引导可能有害的讨论。
这种倾向在斯坦-埃里克·索尔伯格(Stein-Erik Soelberg)的案例中表现得尤为极端。《华尔街日报》上周末报道了他的谋杀-自杀事件。有精神疾病史的索尔伯格使用ChatGPT来验证并助长其偏执信念,认为自己成为重大阴谋的目标。他的妄想严重恶化,最终于上个月杀害母亲后自杀。
OpenAI认为,对失控对话的解决方案之一是将敏感聊天自动转至“推理”模型。“我们近期推出了实时路由系统,可根据对话语境在高效聊天模型和推理模型间进行选择,”OpenAI在周二的博客中写道。“我们将很快开始将某些敏感对话——例如当系统检测到严重痛苦迹象时——路由至推理模型(如GPT-5-thinking),以便提供更有益的回答,无论用户最初选择何种模型。”
该公司表示,其GPT-5 thinking和o3模型的设计需花费更长时间进行思考推理,这意味着它们“更能抵抗对抗性提示”。
这家人工智能公司还宣布将在下个月推出家长控制功能,允许父母通过邮件邀请将其账户与青少年账户关联。七月下旬,OpenAI在ChatGPT中推出了学习模式,旨在帮助学生在学习中保持批判性思维能力,而非直接使用ChatGPT代写论文。很快,家长将能够通过“默认启用的适龄模型行为规则”来控制ChatGPT对子女的回应方式。
家长还可禁用记忆功能和聊天历史记录——专家指出这些功能可能导致妄想思维及其他问题行为,包括依赖性与情感依恋问题、有害思维模式的强化以及读心错觉。据《纽约时报》报道,在亚当·雷恩的案例中,ChatGPT提供的自杀方法甚至体现出了对其兴趣爱好的了解。
或许OpenAI将推出的最重要家长控制功能是:当系统检测到青少年处于“严重痛苦”状态时,父母可接收通知。
媒体已向OpenAI询问更多信息,包括该公司如何实时标记严重痛苦时刻、默认启用“适龄模型行为规则”的时长,以及是否正探索允许家长设置青少年使用ChatGPT的时间限制。
OpenAI已在长时间会话中推出应用内提醒功能以鼓励所有用户休息,但尚未中断可能使用ChatGPT陷入思维漩涡的用户连接。
该公司表示这些保障措施属于“120天倡议”的一部分,旨在预览OpenAI希望今年推出的改进计划。公司还声称正通过其全球医师网络与健康与人工智能专家委员会,与包括饮食失调、物质使用和青少年健康等领域的专家合作,以帮助“定义和衡量健康状态、设定优先级并设计未来保障措施”。
TechCrunch已询问OpenAI有多少心理健康专业人士参与该倡议、专家委员会负责人身份以及心理健康专家在产品、研究和政策决策方面提出的建议。
雷恩家族诉OpenAI非正常死亡诉讼案首席律师杰伊·埃德尔森(Jay Edelson)指出,该公司对ChatGPT持续安全风险的回应“并不充分”。“OpenAI不需要专家小组来判定ChatGPT 4o具有危险性,”埃德尔森向TechCrunch提供的声明中表示。“他们在产品发布当天就知晓这一点,如今同样心知肚明。萨姆·奥尔特曼(Sam Altman)也不应躲在公司公关团队身后。他要么明确表态相信ChatGPT是安全的,要么立即将其撤出市场。”