OpenAI于本周一正式推出新一代人工智能模型系列GPT-4.1(GPT-4.1)。官方声明显示,该模型在编程基准测试等专项评估中的表现已超越部分现有模型。但值得关注的是,此次发布首次缺失了行业惯例的安全评估报告——这类文档通常被称为“模型系统卡”。

Cover Image

截至周二上午,OpenAI仍未提供GPT-4.1的安全报告,且无后续补发计划。公司发言人向科技媒体解释称:“由于GPT-4.1并非前沿模型,因此不会专门为其制作系统卡。”

人工智能行业长期遵循的安全报告制度,通常会披露模型开发方与第三方合作机构进行的各类安全测试结果。这类报告往往包含关键风险披露,例如模型存在欺骗性行为倾向或具备危险说服力等潜在缺陷。行业专家普遍认为,定期发布安全报告是体现实验室支持独立研究及红队测试的重要承诺。

但近几个月来,多家头部AI实验室的安全报告标准明显下滑,引发安全研究界的强烈抗议。部分企业如谷歌存在拖延发布报告的行为,另有企业提交的报告存在内容简略、关键细节缺失等问题。

OpenAI近期在安全透明度方面的表现同样引发争议。去年12月,该公司因安全报告内容与实际部署版本的测试数据存在偏差而受到批评。上月还出现新模型发布数周后才补充系统卡的异常情况。据前OpenAI安全研究员透露,尽管安全报告属于自愿行为,但该公司曾在多个国际场合作出透明度承诺——在2023年英国AI安全峰会期间,OpenAI将系统卡定位为其问责体系的“关键组成部分”;针对2025年巴黎AI行动峰会,该公司也强调系统卡在揭示模型风险方面的重要作用。

当前正值OpenAI面临内外部安全质疑的关键时期。上周,12名前员工以法庭之友身份支持马斯克对OpenAI的诉讼,指控其盈利导向可能影响安全工作的优先级。多方信源证实,由于市场竞争加剧,这家ChatGPT开发商已大幅缩减安全测试相关投入。

虽然GPT-4.1并非OpenAI当前性能最强的模型,但其在运行效率和响应速度方面实现了显著提升。安全AI项目联合创始人特别指出,模型性能的进步反而凸显安全报告的重要性——模型复杂度与潜在风险往往呈现正相关趋势。

值得警惕的是,多家AI实验室正试图规避将安全报告纳入法律强制要求。以OpenAI为例,该公司曾公开反对加州SB 1047法案,该法案要求AI开发者必须对公开发布的模型进行安全审计并公布评估结果。


文章标签: #AI安全 #OpenAI #GPT41 #透明度 #争议

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。