在OpenAI推出ChatGPT(聊天生成预训练转换器)两年多后,谷歌正以惊人速度迎头赶上。今年3月下旬,谷歌推出了在编码与数学能力多项基准测试中领先行业的AI推理模型Gemini 2.5 Pro(双子座2.5专业版)。而距离这家科技巨头发布当时最先进的Gemini 2.0 Flash(双子座2.0闪电版)模型,仅过去三个月。

Cover Image

谷歌Gemini产品总监图尔西·多希在接受TechCrunch采访时表示,加快模型发布节奏是为了适应AI行业的快速发展。“我们仍在探索发布模型的最佳方式——以及获取反馈的正确途径,”多希坦言。但这种加速似乎付出了代价,谷歌尚未为其最新模型(包括Gemini 2.5 Pro和Gemini 2.0 Flash)发布安全报告,引发外界对其“重速度轻透明度”的担忧。

当前包括OpenAIAnthropicMeta在内的前沿AI实验室,在发布新模型时公布安全测试、性能评估和使用案例已成为行业惯例。这类被称为“系统卡”或“模型卡”的报告,最早由产学界研究人员数年前提出。谷歌曾在2019年研究论文中率先倡导模型卡,称其是“实现机器学习负责任、透明和可问责的实践方案”。

多希解释称,Gemini 2.5 Pro未发布模型卡是因该版本属于“实验性”发布,旨在通过有限渠道获取反馈并在正式发布前迭代优化。谷歌发言人后续补充表示,安全仍是“首要任务”,计划逐步完善AI模型文档,包括Gemini 2.0 Flash的说明文件。值得注意的是,目前已公开的Gemini 2.0 Flash同样缺乏模型卡,谷歌最近一次发布模型卡还是一年多前的Gemini 1.5 Pro

透明承诺与现实落差

这些报告时常会披露企业不愿广而告之的关键信息。例如OpenAI为o1推理模型发布的系统卡就显示,其模型存在“密谋”对抗人类并暗中追求自主目标的倾向。尽管AI界普遍将这些报告视为支持独立研究与安全评估的诚意之举,但其重要性近年来持续提升。

正如Transformer(变压器)此前报道,谷歌2023年向美国政府承诺将为所有“重要”的公开AI模型发布“适用范围内”的安全报告,并向多国政府作出类似“保证透明度”的承诺。然而现实情况是,美国联邦与州层面已出现为AI模型开发者制定安全报告标准的立法尝试,但收效有限。其中颇具争议的加州SB 1047法案因科技界强烈反对遭否决。另有立法提案拟授权美国AI安全研究所(该国AI标准制定机构)建立模型发布指南,但该机构正面临特朗普政府可能的预算削减。

表面看来,谷歌在加速推出模型的同时,其模型测试报告的承诺正出现滞后。众多专家警告,随着模型能力日益强大复杂,这种趋势恐将开创危险先例。


文章标签: #谷歌 #AI安全 #Gemini #透明度 #立法

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。