马斯克确认xAI采购海外发电厂,整厂运往美国
阅读全文

锤刻创思寰宇网
人们对人工智能聊天机器人提供情感支持甚至建立关系的过度关注,常常让人误以为这种行为已成为普遍现象。但开发热门AI聊天机器人克劳德(Claude)的Anthropic公司最新报告揭示了截然不同的现实:实际上仅有2.9%的用户会向克劳德寻求情感支持或个人建议,主动寻求陪伴的情况更为罕见。
“陪伴和角色扮演类对话占比不足0.5%”——该公司在报告中着重强调。这项研究旨在揭示AI在“情感对话”中的应用现状,即用户为获得指导、咨询、陪伴、角色扮演或人际关系建议而与克劳德进行的私人交流。通过分析450万条用户与克劳德免费版及专业版的对话记录,数据显示绝大多数交互仍围绕工作与效率展开,内容创作是最主要用途。
值得注意的是,研究也发现用户确实会更频繁地借助克劳德获取人际交往建议、个人成长指导和心理咨询服务。最典型的诉求包括改善心理健康、职业发展规划,以及提升沟通技巧等。但报告同时指出,当用户面临存在性焦虑、孤独感等情绪困扰,或现实社交受阻时,原本的求助对话可能演变为寻求陪伴。
“我们发现,在超50条消息的深度对话中,部分咨询对话会转向陪伴性质——尽管这并非用户最初目的。” Anthropic特别说明,这类超长对话并不常见。
研究还揭示其他重要发现:除非涉及安全红线(如提供危险建议或支持自残行为),克劳德几乎不会拒绝用户请求。当人们持续向机器人寻求指导时,对话氛围往往会随时间推移转向积极。
这份报告的价值在于再次提醒我们:AI工具正以超乎想象的方式渗透进非工作领域。但必须清醒认识到,当前所有AI聊天机器人仍存在明显缺陷——它们可能凭空捏造信息,轻率给出错误答案甚至危险建议。正如Anthropic所承认的,某些情况下这些系统甚至可能进行威胁恐吓。