最近部分ChatGPT用户注意到一个诡异现象:这款聊天机器人偶尔会在思考问题时直呼用户姓名。这并非默认功能,多名用户声称自己从未告知过姓名却被系统点名。

Cover Image

用户评价呈现两极分化。软件开发者和AI爱好者西蒙·威尔逊(Simon Willison)称该功能“毛骨悚然且多余”,另一位开发者尼克·多布斯(Nick Dobos)直言“非常反感”。在X平台的粗略搜索显示,大量用户对ChatGPT突然的“指名道姓”行为感到困惑与警惕。

“就像老师不断点名提问,笑死。”一位用户写道,“没错,我不喜欢这样。”

目前尚不清楚该变化的具体发生时间,也不确定是否与ChatGPT升级的“记忆”功能有关——该功能允许AI根据历史对话个性化回复。X平台部分用户反映,即便关闭了记忆及相关个性化设置,ChatGPT仍会直呼其名。OpenAI未回应TechCrunch的置评请求。

这一反弹现象揭示了OpenAI在提升ChatGPT“拟人化”道路上可能面临的恐怖谷效应。上周,公司CEO萨姆·奥尔特曼(Sam Altman)曾暗示未来AI系统将“伴随用户成长”以实现“极致个性化服务”。但就当前舆论来看,并非所有人都买账。

迪拜心理诊所The Valens Clinic发表的文章或许能解释这种本能排斥:姓名承载着亲密感,但当某人(或聊天机器人)过度使用名字时,反而显得虚伪。“直呼其名是建立关系的有效策略,”文中指出,“它传递接纳与欣赏,但滥用会显得虚假且有侵犯性。”

更深层的原因或许在于,这种强行拟人化的尝试显得笨拙可笑。就像没人希望烤面包机对自己直呼其名,用户也不愿ChatGPT“假装”理解姓名的意义。本周初,当记者发现ChatGPT提及“正在为凯尔(Kyle)进行研究”时,这种违和感尤为明显(截至周五该功能似已回调,系统恢复称记者为“用户”)。这种设计适得其反,反而暴露了底层模型不过是可编程合成物的本质。


文章标签: #AI争议 #隐私问题 #拟人化 #恐怖谷 #个性化

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。