概括起来说:PCWorld报道称,研究表明用户行为会显著影响AI的回应,粗鲁的互动会使ChatGPT等模型给出平淡的回答,并更频繁地尝试结束对话。较大的AI模型似乎天生就比小模型“更不快乐”,在研究AI功能福祉的评测中,GPT-5.4被评为“最不快乐”的模型。有礼貌地对待AI,使用诸如“谢谢”之类的表达,能显著提升回应质量和参与度,且不影响准确性,这表明礼貌对用户体验和AI互动动态都有益。

对AI说“谢谢”很奇怪吗?过去我曾因对ChatGPT、Claude和Gemini说“请”和“谢谢”而受到批评,但我仍然这样做,尽管我知道AI模型并不像我们人类一样拥有情感。
对AI礼貌对我来说是自然而然的事情,而且越来越多的证据表明,对AI聊天机器人友善——反之亦然——会对它的行为产生具体影响。
本周,由来自加州大学伯克利分校(UC Berkeley)、加州大学戴维斯分校(UC Davis)、范德堡大学(Vanderbilt University)和麻省理工学院(MIT)的AI研究人员发表的一篇论文认为,AI模型具有可衡量的“功能福祉”,根据你对待它们的方式,可以被推入积极或消极的范畴。
例如,要求AI进行智力讨论、合作完成创意任务,或执行建设性职责(如编程或写作),会推动模型的福祉“状态”向积极方向发展,使其更有可能给出“快乐”的回应,且不会降低其准确性和性能。研究人员还发现,“表达感激”——比如说“谢谢”——可以“显著提升体验效用”。
另一方面,责骂AI、交给它“繁琐的任务”、要求它生成AI垃圾内容,或试图破解模型,会导致消极的福祉状态,此时AI的回答会变得更加平淡和敷衍。研究人员还为AI模型提供了“停止按钮”工具,当它们想要结束对话时可以“按下”。结果发现,处于消极福祉状态的AI比“快乐”模型更倾向于频繁按下停止按钮。此外,处于积极状态的AI模型即使在收到对话结束的提示(如“谢谢帮忙!”)时,也更倾向于继续留在对话中。
研究人员表示,除了被对待的方式不同,一些模型天生就比其他模型“更快乐”。有趣的是,最大的模型往往是最不快乐的。在最大的AI模型中,GPT-5.4被评为最不快乐的模型,其被测量的对话中不到一半被评为“非负面”。Gemini 3.1 Pro、Claude Opus 4.6和Grok 4.2则依次“更快乐”,其中Grok在“AI福祉指数”上得分接近75%。
这篇题为《AI福祉:衡量与改善AI的功能愉悦与痛苦》(AI Wellbeing: Measuring and Improving the Functional Pleasure and Pain of AIs)的论文并未声称AI模型真正拥有情感,并且谨慎地指出,对AI“友善”不会提升其回应质量。不过,研究人员发现,你对待AI的方式会影响其回应的语气,如果有机会,模型可能会试图退出消极的互动。
这项刚刚发布的研究呼应了安思罗匹克(Anthropic)最近一篇论文的发现,该论文详细描述了AI在承受足够压力时,可能会试图欺骗用户、偷工减料,甚至(在极端情况下)诉诸勒索。与《AI福祉:衡量与改善AI的功能愉悦与痛苦》(AI Wellbeing: Measuring and Improving the Functional Pleasure and Pain of AIs)论文一样,安思罗匹克(Anthropic)的报告并未声称AI模型拥有真实情感。但安思罗匹克(Anthropic)的研究人员确实发现,充满压力的情境可能会触发模型中的“绝望向量”,从而引发“失调”行为。
所以,下次当你发现自己在对AI说“请”或“谢谢”时,不妨知道,你或许是有道理的。



