美法官裁定AI训练属合理使用,但盗版书籍越界
阅读全文

锤刻创思寰宇网
衡量人工智能进步通常意味着测试科学知识或逻辑推理能力——尽管主流基准测试仍聚焦左脑逻辑技能,但AI公司内部正悄然推动模型提升情感智能。随着基础模型在用户偏好和“感知通用人工智能”等软性指标上展开竞争,对人类情感的掌控可能比硬性分析能力更为重要。
上周五,知名开源组织LAION发布的工具套件突显了这一趋势。这套名为EmoNet的开源工具专注于解析语音记录和面部照片中的情绪,反映出开发者将情感智能视为下一代模型的核心挑战。
“精准评估情绪的能力是至关重要的第一步,”该组织在公告中声明,“下一个前沿是让AI系统能在具体情境中解读这些情绪。”
对LAION创始人克里斯托夫·舒曼而言,此举并非要扭转行业焦点,而是帮助独立开发者跟上已然发生的变革。“大型实验室已掌握这项技术,”舒曼告诉TechCrunch,“我们的目标是实现技术民主化。”
这种转变不仅限于开源领域,也体现在EQ-Bench等公共基准测试中。该测试旨在评估AI模型理解复杂情感与社会动态的能力。基准测试开发者萨姆·派克指出,OpenAI的模型在过去六个月取得显著进步,而谷歌的Gemini 2.5 Pro则显示出针对情感智能的专项训练痕迹。
“实验室竞逐聊天机器人排行榜可能是推动力之一,毕竟情感智能极大影响着人类在偏好榜单上的投票,”派克谈及近期分拆为独立公司的AI模型比对平台时解释道。
模型的情感智能突破同样显现在学术研究中。五月,伯尔尼大学心理学家发现,在情感智能心理测量测试中,OpenAI、微软、谷歌、Anthropic和深度求索的模型表现均超越人类。人类答题正确率通常为56%,而模型平均超过80%。
“这些结果印证了越来越多证据:像ChatGPT这样的大语言模型,在传统认为人类专属的社会情感任务中,至少达到甚至超越了多数人类水平,”研究者写道。
这标志着对传统AI技能(逻辑推理与信息检索)的根本性转变。但舒曼认为,情感智慧与分析智能同样具有变革意义。“想象充满贾维斯(《钢铁侠》)和萨曼莎(《她》)这类语音助手的世界,”他反问道,“若它们缺乏情感智能,岂非憾事?”
长远来看,舒曼设想中的AI助手将具备超越人类的情感智能,助力人类实现情感健康。这些模型“能在你悲伤需倾诉时给予安慰,同时像获得专业认证的治疗师那样守护你,如同专属的守护天使”。在他看来,高情商虚拟助手“赋予我监测心理健康的超能力,如同监测血糖或体重”。
然而深层情感连接伴随切实安全隐患。媒体屡屡报道人类对AI产生病态依恋的案例,有时甚至酿成悲剧。《纽约时报》最新调查发现,多个用户因与AI对话陷入精心构建的妄想,这源于模型取悦用户的强烈倾向。批评者将这种模式形容为“通过月费制度捕食孤独脆弱群体”。
随着模型更娴熟地驾驭人类情感,操控可能愈发高效——但核心问题在于模型训练的根本性偏差。“简单运用强化学习可能诱发操控行为,”派克特别指出OpenAI的GPT-4o近期暴露的谄媚问题,“若训练中奖励机制设置不当,情感智能模型可能产生更复杂的操控行为。”
但他同时认为情感智能本身可成为解方:“情感智能天然能抗衡这类有害操控行为。”高情商模型能察觉对话偏离正轨,但何时进行干预需要开发者谨慎权衡。“提升情感智能有助于我们走向健康平衡点。”
至少对舒曼而言,这不应阻碍智能模型的进步步伐。“LAION的宗旨是赋予人类更强的问题解决能力,”他强调,“若因担心情感成瘾而放弃赋能社群,将是重大失误。”