近来频繁听到人们谈论“AI”这个词,但实际使用场景中只有三成属于正确用法。从占据新闻头条的ChatGPT、DeepSeek等大型语言模型,到游戏芯片与校园教育领域的人工智能应用,这项技术正以惊人速度渗透各个角落。虽然这种狂热容易让人联想到上世纪笼罩在核威胁下的“铀元素崇拜”,但两者的危险性存在本质差异。
《卫报》披露的最新动向显示,人工智能领域权威专家正在呼吁建立类似核武器试验的安全评估机制。麻省理工学院物理系教授、AI研究员马克斯·泰格马克(Max Tegmark)与团队发表的论文明确提出:必须通过数学计算评估高度先进AI系统脱离人类控制的概率,这项提议直接参照了1945年“三位一体”核试验前阿瑟·康普顿(Arthur Compton)团队的研究方法。
历史记载显示,康普顿团队当年计算出核爆引发大气燃烧的概率低于三百万分之一后,才批准进行核试验。而泰格马克通过类似模型推演发现,高级人工智能对人类构成威胁的概率竟高达90%——这完全不同于普通软件漏洞的风险量级。这种理论上可能出现的终极形态AI被定义为“人工超级智能”(Artificial Superintelligence,简称ASI)。
研究结论促使泰格马克力主建立强制性安全检测体系。他在论文中强调:“开发超级智能的企业必须计算'康普顿常数'——即系统失控的概率数值。单凭主观判断完全不够,必须给出精确的百分比数据。”为实现这个目标,他建议由多家科技巨头共同制定标准化检测方案,通过行业联盟形成政治压力确保执行。
这并非泰格马克首次推动AI监管。作为非营利组织“生命未来研究所”(Future of Life Institute)联合创始人,他在2023年发起的那封震动业界的公开信,曾获得埃隆·马斯克(Elon Musk)、史蒂夫·沃兹尼亚克(Steve Wozniak)等科技领袖联署支持。该信明确主张暂停开发超越GPT-4级别的人工智能系统。
近期,泰格马克还与图灵奖得主约书亚·本吉奥(Yoshua Bengio)以及OpenAI、谷歌DeepMind的核心研发人员共同参与撰写了《新加坡全球AI安全研究优先事项共识》报告。或许当人工超级智能真正问世之时,人类至少能像计算核爆概率那样,精确测算出文明存续的可能性。