我经常问朋友们是否信任ChatGPT或Gemini,尤其是当他们告诉我自己会向这些AI聊天机器人输入医疗检测结果、极为私人的想法甚至敏感的工作问题时。但在2026年RSAC网络安全大会上与微软(Microsoft)交流后,我意识到我一直问错了问题。很可能你也问错了。

Cover Image

微软(Microsoft)的数据牛仔兼AI红队负责人拉姆·尚卡尔·西瓦·库马尔(Ram Shankar Siva Kumar)指出,大多数人都在问如何信任AI。也就是说,他们试图了解足够多关于AI及其内部运作的信息,以便判断其可靠性。他们的关注点在于模型及其代码。

相反,库马尔(Kumar)建议我们应该问:“我是否信任开发者?”

这种关于信任的新思路,源于一次围绕智能体AI的简短对话,这类AI将吸引大多数消费者。正如库马尔(Kumar)所言,这类AI有助于“处理生活中的苦差事”。不难想象拥有一个能作为数字助理的AI智能体、仅需少量输入即可处理多步骤任务的吸引力。但库马尔(Kumar)也表达了他的担忧:大多数消费者并不知道,有些AI项目尚未做好大规模应用的准备。

例如,如果一个AI智能体拥有对你整个数字生活的无限制访问权限,你可能不会意识到,目前并没有适当的防护措施来防止重大错误和可能无法弥补的损害。库马尔(Kumar)和我最终将此称为AI的“YOLO模型”。现实中已有证据——我们已经反复看到AI智能体删除未被要求删除的文件的故事,近期一个突出的例子就是一位Meta高管被OpenClaw删除了200封电子邮件

当然,你可以更谨慎地使用智能体AI,正如我的同事本·帕特森(Ben Patterson)所解释的那样。但他的建议要求用户比大多数人更深入、更密切地关注AI——我的朋友们、家人和熟人们只是把问题丢进聊天机器人,或者直接点击AI摘要按钮,而不会事先制定策略。

更简单的方法是,直接问问自己是否相信AI模型的开发者能够兑现产品的宣传承诺。许多AI开发团队可以如实地说,新版本是他们迄今为止最先进的模型。但从客观层面看,它是否在功能和防范漏洞方面都真正先进呢?

这个问题的答案未必是彻底远离有趣的新工具。相反,应该对你信任什么、信任谁以及信任的程度,做出敏锐的判断。


文章标签: #人工智能 #网络安全 #微软 #信任模型 #AI风险

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。