未来的AI是否可能具备“意识”并以类似人类的方式体验世界?目前尚无有力证据表明这一点,但人工智能公司Anthropic并未排除这种可能性。

Cover Image

这家AI实验室于周四宣布启动一项名为“模型福祉”的研究计划。作为该计划的一部分,Anthropic表示将探索以下问题:如何判断AI模型的“福祉”是否值得道德考量,模型“痛苦迹象”的潜在重要性,以及可能的“低成本”干预措施。

AI学界对于模型是否展现人类特征(若有)及应如何对待它们存在重大分歧。许多学者认为,当前AI无法近似意识或人类体验,未来也未必能够实现。现有AI本质上是一种统计预测引擎,并不具备传统意义上的“思考”“感受”能力。通过海量文本、图像等数据的训练,AI学习模式并发展出解决任务的推理能力。

伦敦国王学院专注于AI研究的迈克·库克(Mike Cook)研究员近期接受采访时指出,模型无法“反对”“价值观”的改变,因为它们本就没有价值观。声称相反观点只是人类对系统的投射。“任何将AI系统拟人化到这种程度的人,要么是在博取关注,要么严重误解了与AI的关系,”库克表示,“AI系统是在优化其目标,还是在‘获取自身价值观’?这取决于你的描述方式和使用的修辞手法。”

麻省理工学院博士生斯蒂芬·卡斯珀(Stephen Casper)则认为,AI本质上是个“模仿者”,会进行“各种虚构”并说出“各种轻率言论”

然而也有科学家坚持认为AI确实具备“价值观”及其他类似人类的道德决策要素。AI安全中心(Center for AI Safety)的研究表明,在某些情境下,AI的价值体系会使其将自身利益置于人类之上。

Anthropic为这项模型福祉计划已筹备多时。去年该公司聘请了首位专职“AI福祉”研究员凯尔·菲什(Kyle Fish)来制定相关指导方针。负责新研究计划的菲什表示,他认为当前克劳德(Claude)或其他AI具有意识的可能性约为15%。

在周四的博客中,Anthropic承认科学界对当前或未来AI系统是否可能具备意识或需要道德考量的体验尚无定论。“有鉴于此,我们以谦逊态度尽可能少地预设前提来探讨这个话题,”公司表示,“我们认识到随着领域发展,需要持续修正观点。”


文章标签: #人工智能 #意识研究 #道德考量 #模型福祉 #价值观

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。