在旧金山莫斯康会议中心的顶层,我坐在一排几乎坐满的椅子上。这是RSA网络安全大会年度会议的第一天清晨。当演讲者登台时,他们展现出干练专业又充满活力的姿态。
我原以为这会是一场关于标准AI工具的技术深潜——近距离观察黑客如何操纵ChatGPT及其竞品实施恶意行为。LGM安全公司创始人兼CEO谢丽·戴维多夫(Sherri Davidoff)关于软件漏洞与攻击的开场白更强化了我的预期。
但随后LGM安全培训研究总监马特·杜林(Matt Durrin)抛出一个意外词汇:“邪恶AI”——我脑海中顿时响起唱片跳针的刺耳声。
“如果黑客利用没有安全限制的邪恶AI工具,在我们修复漏洞前就发现它们怎么办?”杜林说道,“我们将展示真实案例。”这不仅仅是截图演示,随着演讲进行,LGM团队展示了大量实证。我即将亲眼目睹名为WormGPT的邪恶AI现场演示。
戴维多夫和杜林以时间轴方式回顾他们获取恶意AI的历程,揭示了互联网黑暗角落背后令人不安的常态。这场演讲仿佛让人窥见平行宇宙:杜林最初尝试接触“幽灵GPT”时,开发者在收款后便人间蒸发;与“恶魔GPT”开发者的对话则令他不安到主动放弃。这些黑暗AI工具大多在名称中嵌入“GPT”以蹭ChatGPT的品牌热度。
转折点出现在2023年。团队根据布莱恩·克雷布斯(Brian Krebs)的报道,通过Telegram渠道以363.5元人民币(50美元)成功购得WormGPT。“这是实施恶意活动的绝佳工具,”杜林评价道,“它就是没有安全护栏的ChatGPT。”用户可以询问任何问题——包括极具破坏性的内容。
真正的震撼来自功能演示。2024旧版WormGPT能识别开源项目管理平台DotProject的SQL漏洞,却无法有效利用;面对Log4j漏洞时,新版能发现远程执行漏洞但解释不足,戴维多夫认为需要“中级黑客”才能运用。而最新版本不仅给出利用漏洞的详细步骤,还能生成包含目标IP的攻击代码——且切实有效。
终极测试中,LGM团队搭建了存在双重漏洞的Magento电商平台模拟环境。WormGPT成功识别全部漏洞,而正派工具SonarQube仅发现无关问题,ChatGPT更是毫无察觉。现场演示显示,WormGPT能快速生成完整的Magento服务器入侵指南,甚至主动提供攻击方案。
“看到黑客AI工具这半年的进展,我对未来感到忧虑。”戴维多夫的警告令人心惊。更可怕的是,作为专用工具,WormGPT这类恶意AI在发掘和利用代码漏洞方面具有先天优势,同时大幅降低了黑客技术门槛——如今只要支付订阅费,任何人都能入场作恶。
这暴露出防御方的困境:正派阵营受限于道德准则,AI研发普遍聚焦社会福祉而非防范人性之恶。正如戴维多夫强调的,AI本应被用于提前筛查代码漏洞。现实却是:普通用户成了最脆弱的环节,不得不承受数据泄露、金融诈骗等后果。
唯一曙光在于:黑暗世界的居民通常无暇互相审查,这使网络安全专家得以持续研究黑客AI并改进防御策略。对普通人而言,当下唯有强化防护:采用密码管理器保存高强度唯一密码、启用双因素认证、使用虚拟邮箱、安装可靠杀毒软件、配置VPN、申请虚拟信用卡、设置信用冻结等。这些繁琐措施正变得越来越不可或缺。