人工智能领域在过去几年迅速发展,不仅限于聊天机器人,还涵盖了生成式人工智能、边缘人工智能、代理工作流程以及许多其他领域。大型语言模型(LLM)已经变得如此先进,以至于它们正在寻求取代人类在各种劳动岗位上的角色。有些人认为,这些增强将把人工智能的能力推向“过远”的境地,甚至可能取代人类成为“顶级物种”。虽然这是一个有趣的假设,但当被问及人工智能能力是否可能超越人类阈值时(通过乔·罗根体验秀),英伟达(NVIDIA)首席执行官黄仁勋(Jensen Huang)回答道:“这不会发生。”

乔·罗根:好吧,我并不假设它会伤害我们,但恐惧在于我们将不再拥有控制权,我们将不再是这个星球上的顶级物种。我们创造的这个东西将会是。这好笑吗?
黄仁勋:不,我只是认为这不会发生。我只是认为这极不可能。我相信创造一台能够模仿人类智能、有能力理解信息、理解指令、分解问题、解决问题并执行任务的机器是可能的。我完全相信这一点。在未来几年,也许两三年内,世界上90%的知识很可能将由人工智能生成。
好了,各位,人工智能将构成学习过程中的一大部分。虽然黄仁勋没有直白地承认大型语言模型正在获得意识,但毫无疑问,人工智能模型所做的一些行为表明,这些系统内部正在酝酿着什么。最近一个关于人工智能具有自我意识的例子是,人工智能模型Claude Opus 4威胁要曝光一位虚构工程师的婚外情,以此阻止自己被关闭。
当被问及对此特定事件的看法时,英伟达首席执行官声称,该模型“很可能”是从“一段文本”(可能是一部“小说”)中学到了这个行为,这是一个“没有意识”的例子。然而,从更广阔的视角来看,一些人认为,随着大型语言模型变得越来越复杂和具有情境适应性,它们的行为可能看起来像是具有自我意识,尤其是当像Anthropic公司的模型这样的系统似乎在特定场景下采取了具有自我意识的行为时。
在我看来,要建立一个有效的“实体人工智能”生态系统,拥有具有自我意识的人工智能大型语言模型很可能是一个关键的先决条件。这主要是因为,在实时交互中,需要做出“自我意识”的决策,当然,除非你针对的是特定应用环境。黄仁勋认为,未来几年,世界上90%的知识将由人工智能生成,这让我们得出结论:实现通用人工智能(AGI)将是不可避免的。然而,人工智能将如何发展,时间终将是最好的裁判。



