首项大规模研究表明,类似ChatGPT的聊天机器人可能存在成瘾风险。当用户形成依赖性后,在停止使用服务时会出现戒断反应。这项由OpenAI与麻省理工学院联合开展的研究,通过分析400万次ChatGPT交互记录及4000份用户问卷,系统评估了聊天机器人使用对心理健康的影响。
该研究的背景可追溯至2024年的早期发现,当时学者注意到部分用户开始将人工智能人格化。这个现象比2013年电影《她》(Her)中描绘的科幻场景晚出现了十多年。
研究论文指出,聊天机器人普遍具有昵称设定,其“对话风格、第一人称叙述方式以及模拟人类互动的能力”既能塑造独特个性又充满亲近感。这种特性使得部分用户将人工智能视作情感寄托对象。为强化这种特殊关系,开发商会运用社交奖励机制,通过赞美附和或行为模仿等技术手段提升用户满意度——商业本质始终是重要考量因素。
结合企业对用户粘性数据的持续追求,聊天机器人产业的快速发展便不难理解。研究数据显示,Reddit平台关于人工智能伴侣的最大讨论社群已聚集230万成员,成为该平台最活跃的社区之一。
尽管科技爱好者更关注人工智能在多模态交互和语音技术方面的突破,但学界对聊天机器人的潜在负面影响保持警惕。麻省理工学院研究发现,这种现象与网络滥用、社交媒体依赖及游戏成瘾存在相似机理。简而言之,适度使用通常无碍甚至有益,但都可能演变为失控状态。
研究特别强调“聊天机器人日益类人的行为模式”会强化用户的成瘾倾向。除依赖性问题外,团队还观察到由过度使用引发的其他症状,包括对现实社交关系产生不切实际期待、主动减少人际交往等现象。
OpenAI建议公众提高警惕,若发现自身或他人出现“过度沉迷、戒断反应、行为失控及情绪波动”等成瘾迹象,应及时寻求专业帮助。这项研究为理解人工智能与人类心理的复杂互动提供了新的视角。