谷歌DeepMind(谷歌深度思维)周三发布的人工通用智能(AGI)安全治理报告引发广泛关注。这份145页的报告将AGI初步定义为“能够完成人类任何任务的AI系统”,尽管这个概念在学术界仍存争议——部分质疑者认为其实现可能性如同镜花水月,但包括Anthropic(安瑟伦)在内的主流AI实验室已发出警告,强调必须提前建立防护机制以应对潜在风险。
参与撰写的DeepMind联合创始人谢恩·莱格(Shane Legg)团队预测,具备颠覆性能力的AGI系统可能在本世纪30年代前出现,甚至存在引发“永久毁灭人类文明”的生存危机风险。报告特别提出“卓越级AGI”概念,称这类系统将具备超越99%熟练成年人的非体力劳动能力,包括完成学习新技能等复杂元认知任务。
在技术路线对比中,报告指出Anthropic对“强化训练、监测与安保”等基础安全措施投入不足,而OpenAI(开放人工智能研究中心)则对“对齐研究”的自动化进程过于乐观。针对OpenAI近期转向研发的“超级智能”(即全面超越人类能力的AI),DeepMind团队认为除非出现突破性架构革新,否则短期内难以实现真正意义上的超级智能。
值得注意的是,报告着重警示现有技术可能引发的“递归式AI进化”风险——即AI通过自我研究形成能力升级的正向循环机制。为应对这种潜在威胁,研究者提出三大技术攻关方向:建立AGI访问权限控制系统、提升AI决策可解释性、强化运行环境约束机制,但承认这些技术多数仍处于早期研发阶段。
“AGI既可能带来非凡效益,也潜藏重大风险。”报告强调开发者的前瞻性责任。不过学界观点呈现明显分歧:AI Now Institute首席科学家海迪·克拉夫(Heidy Khlaaf)指出AGI概念“缺乏科学评估基础”,阿尔伯塔大学马修·古兹迪亚尔(Matthew Guzdial)教授则认为递归进化理论“尚未获得实证支持”。
牛津大学研究员桑德拉·瓦赫特(Sandra Wachter)提出更现实的担忧:生成式AI产生的错误内容正在污染训练数据池。“当网络空间充斥AI生成的谬误信息,而大众又依赖聊天机器人获取事实时,极具欺骗性的虚假信息将形成难以阻断的传播循环。”
尽管DeepMind的报告构建了完整的安全框架,但关于AGI实现路径与风险防控优先级的学术争论,显然还需要更多实证研究来推动共识达成。