在推出其迄今最强大的人工智能模型Gemini 2.5 Pro数周后,谷歌(Google)于周四发布了一份技术报告,展示其内部安全评估结果。但专家指出,该报告缺乏细节,难以判断该模型可能存在的风险。
技术报告能提供企业通常不会主动宣传的AI相关信息——有时甚至是负面内容。总体而言,AI界将这些报告视为支持独立研究与安全评估的诚意之举。
谷歌采取了与部分AI竞争对手不同的安全报告策略,仅当认为某模型已脱离“实验阶段”才会发布技术报告。该公司也未在这些报告中纳入全部“危险能力”评估结果,而是将其保留给独立审计。
然而多位接受TechCrunch采访的专家对Gemini 2.5 Pro报告的简略程度表示失望,特别指出其中未提及谷歌的“前沿安全框架”(Frontier Safety Framework)。该框架是谷歌去年推出的机制,旨在识别未来可能造成“严重伤害”的AI能力。
“这份报告极其简略,信息量极少,且模型公开发布数周后才姗姗来迟,”AI政策与战略研究所联合创始人彼得·威尔德福德(Peter Wildeford)表示,“根本无法验证谷歌是否履行了公开承诺,也就无法评估其模型的安全性。”
安全AI项目联合创始人托马斯·伍德赛德(Thomas Woodside)虽对谷歌发布报告表示肯定,但质疑该公司能否持续提供及时的安全补充评估。他指出,谷歌上次发布危险能力测试结果是在2024年6月——针对同年2月公布的模型。
更令人担忧的是,谷歌尚未就上周发布的轻量版模型Gemini 2.5 Flash提供报告。发言人向TechCrunch表示Flash报告“即将发布”。
“希望这是谷歌承诺提高更新频率的开端,”伍德赛德强调,“更新内容应包含尚未公开部署模型的评估结果,因为这些模型同样可能构成重大风险。”
尽管谷歌曾是首批提议AI模型标准化报告的实验室,但近期在透明度方面遭受诟病的不只它一家。Meta对其新版Llama 4开源模型的安全评估同样简略,而OpenAI则选择不为GPT-4.1系列发布任何报告。
悬在谷歌头顶的,是这家科技巨头对监管机构作出的高标准AI安全测试与报告承诺。两年前,谷歌向美国政府承诺将为所有“重要”公共AI模型发布“适用范围内”的安全报告,随后又向其他国家作出类似“提供AI产品透明度”的保证。
民主与技术中心AI治理高级顾问凯文·班克斯顿(Kevin Bankston)将这种零散含糊的报告趋势称为AI安全领域的“竞次现象”。
“结合OpenAI等竞争对手将安全测试周期从数月压缩至数日的报道,谷歌对顶级AI模型的这种简陋文档记录,揭示出企业匆忙推出模型时AI安全与透明度标准的竞相降低,”他对TechCrunch表示。
谷歌在声明中强调,尽管技术报告未予详述,但所有模型发布前都经过安全测试和“对抗性红队演练”。