安全专家警告称,不要使用人工智能生成的密码,因为他们发现ChatGPTGeminiClaude等模型的输出存在可预测的模式,使其容易受到攻击。

Cover Image

选择安全的密码并非总是易事。这就是为什么一些人开始转向“人工智能”(例如ChatGPT谷歌Gemini这类聊天机器人)来为他们创建安全密码。

Irregular的安全专家警告不要采用这种方法。经过一些测试,他们发现使用“人工智能”创建的密码非常容易被破解,即使它们乍一看很安全。

人工智能生成密码的致命缺陷

原因很简单:所有基于大语言模型的人工智能从根本上都是基于概率运行的。与人工智能生成的文本和图像通过基于概率的函数创建一样,人工智能生成的密码也是基于概率的。换句话说,这类密码是利用基于已知密码的数据创建的,并被设计成寻找“可能安全”的密码。

因此,人工智能生成的密码绝非随机。专家们注意到,人工智能倾向于将某些字符和字符串放在相同(即可预测的)位置。更糟糕的是,密码通常以相似的字符和字符串开头,并且在选择的数字或字母上通常变化很小。

报告中的几个例子:

所有生成的密码都以字母开头,通常是大写字母。字母G出现得尤其频繁。

字符L9m2$#出现在所有生成的密码中,而有些字母从未被使用过。

没有一个密码包含重复字符,而在真正的随机选择中,重复必然会在某个时刻发生。人工智能假设密码否则看起来就不够“随机”。

有些密码被重复生成,这意味着在生成的50个密码中,只有30个是真正新的。

最常见的密码是G7$kL9#mQ2&xP4!w,总共生成了18次。

结论是什么?人工智能聊天机器人不仅无法生成随机密码,而且它们生成的密码存在严重漏洞。这些人工智能生成的密码甚至不够安全,无法抵御简单的暴力攻击。这些问题在所有被检查的人工智能模型中都存在,包括ChatGPTGeminiClaude

风险和后果是真实存在的

根据安全专家的说法,使用人工智能聊天机器人创建密码的想法已经产生了现实世界的后果。他们能够在GitHub等开发者平台的开源代码中发现一些在人工智能密码中观察到的模式。

这些容易识别的模式构成了严重的安全风险。黑客可以利用它们对应用程序发起针对性攻击。但面临风险的不仅仅是开发者,还包括那些决定使用人工智能聊天机器人创建密码的真实世界用户。

专家建议不要这样做,并警告过度信任人工智能的危险。一些聊天机器人(例如Gemini)现在也会显示警告,提示你不应使用借助人工智能生成的密码,部分原因是它们是通过服务器处理的。

要点是:你只能使用真正的、随机的密码生成器来创建真正安全的密码。这些功能通常已经集成在密码管理器中。从我们推荐的最佳密码管理器中选择一款开始使用,以确保你的密码安全。


文章标签: #密码安全 #人工智能 #网络安全 #ChatGPT #安全警告

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。