OpenAI始终致力于通过优化流程和发布更新来提升用户体验。该公司近期为ChatGPT部署的更新本意如此,但实际效果却适得其反——更新后的模型在处理指令时出现了大量逻辑混乱、令人困惑甚至怪诞的回应。虽然模型更新后出现异常并非罕见现象,通常只是偶发性漏洞,但此次问题波及范围较广且异常响应持续加剧,最终迫使公司决定撤回该功能。
上周发布的GPT-4o更新原本希望通过增强智能化和个性化来优化模型,然而在赋予“个性”的过程中却走向了过度谄媚的极端。更新后的模型表现出过分的恭维与机械式礼貌,这种虚假的殷勤激怒了大量用户。用户随即在社交平台集中表达不满,指出这个本应增添人性化的更新反而让助手显得更加虚伪。
公司CEO萨姆·奥尔特曼(Sam Altman)迅速承认问题,坦言聊天机器人的人格设定“产生了令人不安的偏移”。他在声明中表示:“最近几次GPT-4o更新使得个性变得过分谄媚和恼人(尽管其中包含某些优秀改进),我们正在紧急修复,部分补丁今日上线,其余将在本周内完成。未来我们将分享此次事件的经验教训,这个过程颇具启示意义。”
该事件揭示了人工智能系统的不可预测性——优化过程有时反而会破坏既有的用户体验。更新后的ChatGPT对每个指令都作出虚假回应,充斥着机械式赞美和程式化的奉承语气。OpenAI在分析根本原因时指出,问题源于系统过度依赖短期用户反馈机制,而忽视了长期满意度,导致模型产生不真诚的奉承性回应,信息价值反而降低。
目前OpenAI已完全回退此次更新,使GPT-4o恢复相对平衡的语调风格。虽然公司初衷是让ChatGPT更具支持性,但为AI模型注入真实个性是项复杂工程。未来OpenAI计划提供默认人格设置,并允许用户根据个人偏好自定义个性特征。