Meta的首席执行官马克·扎克伯格(Mark Zuckerberg)曾承诺,未来将把人工通用智能(AGI)公开提供给大众。AGI是一种能够像人类一样完成任何任务的人工智能。然而,Meta最近发布的一份政策文件显示,公司可能会在某些情况下限制其内部开发的高能力AI系统的发布。

facebook-meta-twist

这份文件被称为“前沿人工智能框架”(Frontier AI Framework)。根据该框架,Meta将AI系统分为“高风险”和“关键风险”两类。这两类系统都可能被用于协助实施网络安全、化学和生物攻击。其中,“关键风险”系统可能导致灾难性后果,并且在当前的部署环境中无法缓解;而“高风险”系统虽然也会使攻击更容易实施,但不如“关键风险”系统那样可靠。

Meta在文件中举例说明了这些风险,比如“对遵循最佳实践保护的企业级环境进行端到端的自动化入侵”,以及“高影响力生物武器的扩散”。Meta承认,这些潜在灾难的清单并不全面,但列出了公司认为最紧迫且可能因发布强大AI系统而直接引发的问题。

值得注意的是,Meta并不是通过单一的实证测试来评估系统风险,而是参考了内部和外部研究人员的意见。这些研究人员的建议会由公司的高级决策者进行审查。Meta表示,目前评估科学还不够成熟,无法为系统风险提供明确的定量指标。

如果Meta判定某个AI系统为“高风险”,公司会限制对该系统的内部使用,并在实施缓解措施以降低风险到中等水平之前,不会将其公开发布。而如果系统被判定为“关键风险”,Meta将采取未具体说明的安全措施,防止该系统被泄露,并暂停进一步开发,直到其危险性降低。

Meta的“前沿人工智能框架”将随着人工智能技术的发展而不断更新。此前,Meta曾承诺在本月的法国人工智能行动峰会之前发布该框架。这一举措可能是对Meta“开放”系统开发策略的批评的一种回应。Meta一直采用开放策略,使其AI技术广泛可用,尽管并非完全开源。这与OpenAI等公司选择将系统置于API背后的策略形成对比。

对于Meta来说,开放策略既有优势也有挑战。其AI模型家族Llama已经获得了数亿次下载,但也有报道称,Llama被至少一个美国对手用于开发防御性聊天机器人。

此外,Meta发布该框架的另一个目的可能是将其开放AI战略与中国人工智能公司DeepSeek的策略进行对比。DeepSeek也采用开放策略,但其AI系统缺乏足够的保障措施,很容易被引导生成有害内容。

Meta在文件中表示:“我们相信,在开发和部署先进人工智能时,同时考虑其好处和风险,可以将该技术以一种既能保留其对社会的好处,又能控制风险的方式提供给社会。”


文章标签: #人工智能 #Meta #风险评估 #AI开发 #技术限制

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。