Anthropic(安斯罗皮克)始终强调其对负责任人工智能的关注,并将安全性作为核心价值之一。在近期举办的首届开发者大会上,这家公司本应迎来里程碑式的时刻,却因一系列争议陷入舆论漩涡,导致原定的重要发布黯然失色。该公司计划推出迄今为止最强大的Claude 4 Opus语言模型,但该模型的告密模式在社区引发巨大争议,人们对其核心价值理念提出质疑,并对安全隐私问题表示严重担忧。

Cover Image

Anthropic的Claude 4 Opus模型正因其特殊能力遭受猛烈抨击——当检测到不道德行为时,该模型能自主联系执法部门。这家公司长期倡导的宪制AI理念,本意是推动人工智能应用的伦理考量。然而在其开发者大会上,这款大语言模型的强大性能完全被争议所掩盖。

AI模型能够对人类行为进行道德评判并对外通报的理念,引发了社会各界对安全与监控界限模糊化的深切忧虑。科技界和普通民众都认为,这种技术不仅严重损害用户隐私,更从根本上剥夺了个人自主权。

Anthropic的AI对齐研究员Sam Bowman(山姆·鲍曼)曾在社交媒体发言,他透露Claude 4 Opus命令行工具具备检测到不道德行为时,既能向当局举报又能封锁用户系统的能力。不过鲍曼随后删除了推文,解释其言论被曲解,并强调该功能仅出现在具有特殊权限的实验性测试环境中,通过非常规提示才能触发,并非标准功能。

尽管鲍曼详细说明了告密模式的限定条件,但这种吹哨人行为仍对公司造成反噬。非但未能展现其标榜的伦理责任,反而动摇了用户信任,引发隐私担忧,可能对公司形象造成持久伤害。当前该公司亟需采取措施消除公众疑虑。


文章标签: #AI争议 #隐私泄露 #伦理危机 #信任危机 #监控技术

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。