PCWorld报道称,Anthropic修订了其《负责任扩展政策》,增加了一个颇具争议的漏洞条款:如果竞争对手正在训练危险的AI模型,该公司也可效仿。这一修订发生在五角大楼施压要求军事接入Anthropic模型之际,而OpenAI和xAI等竞争对手已与军方达成协议。尽管公司声称仍将维持强有力的保护措施和透明度承诺,但政策修订可能削弱其安全立场。

“安全第一”曾是让Anthropic在大型AI竞争对手中独树一帜的核心理念。该公司最初的承诺是:如果Claude的制造商Anthropic无法保证新模型符合其严格的安全标准,即使竞争对手继续推进,它也将停止训练该模型。
然而,就在Anthropic似乎最需要坚守“安全第一”承诺的时刻——即在与五角大楼的对峙期间——该公司公布了一份修订后的政策,引入了一个关键漏洞。
据《时代》周刊首次报道,Anthropic《负责任扩展政策》的3.0版本推翻了公司早先的承诺,允许其继续训练竞争对手正在积极开发的、可能具有危险性的模型。
新政策还包含提高AI安全透明度的强制要求,并承诺如果自认为在竞争中遥遥领先,将“推迟”开发危险模型。
这一切正发生在Anthropic的关键时刻。该公司面临周五的最后期限,必须决定是否屈从于五角大楼的要求,即允许军方广泛接入其模型用于军事用途。
据《纽约时报》报道,在周二五角大楼与Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei)的会议上,国防部长皮特·赫格塞斯(Pete Hegseth)据称威胁将动用《国防生产法》强制Anthropic交出模型,军方希望将其用于“任何合法目的”。
据悉Anthropic立场坚定,要求赫格塞斯承诺五角大楼不得将其模型用于“自主武器”或监视美国公民。
但一些人将Anthropic修订后的《负责任扩展政策》视为其摆脱当前困境的逃生舱口,使公司可能在满足五角大楼要求的同时,仍能与自身安全政策保持一致。值得注意的是,埃隆·马斯克(Elon Musk)控制的xAI和OpenAI已与五角大楼达成协议。
对此,Anthropic反驳了其修订版RSP削弱安全政策的说法,反而辩称鉴于政府对AI采取放任态度,旧的“红线”已经过时。
Anthropic表示,通过赋予自身继续训练其他公司正在积极开发的不稳定模型的自由度,公司将能够成为稳定力量,而非让更鲁莽的企业成为AI行业的领导者。
或许如此,但愿他们是正确的。尽管如此,看到这家始终代表安全的AI公司改写自己的规则手册,仍令人感到不安。



