PCWorld报道称,微软人工智能红队负责人拉姆·尚卡尔·西瓦·库马尔(Ram Shankar Siva Kumar)警告用户,对待独立人工智能模型要像对待安全风险的“狂野西部”一样。

Cover Image

这位专家将当今的人工智能格局比作早期的互联网下载,恶意行为者和不安全的开发者对用户数据和设备构成了重大威胁。微软建议,对于那些可能不安全地处理权限或怀有恶意的小型、不知名的人工智能开发者,要保持极度谨慎。

在网络早期,下载文件是新鲜有趣的事。你可以找到各种稀奇古怪的东西,比如你最爱歌曲的MIDI版本。但尽管不受限制地访问互联网很有趣,一些下载内容中却潜藏着危险,尤其是那些流行付费软件的“免费”版本。微软表示,人工智能领域同样如此。

在今年的RSAC网络安全大会上,我与微软的数据牛仔兼人工智能红队负责人拉姆·尚卡尔·西瓦·库马尔进行了交谈。他透露了大量关于保障人工智能安全的幕后工作,并就探索这个快速发展的技术领域时如何保持安全给出了一个重要建议。他的建议是:警惕独立的人工智能模型。

你可能会倾向于将此建议视为大型科技公司试图扼杀小型初创竞争对手(考虑到微软去年令人厌倦的Copilot闪电战,这种想法并非不公平)。但这一警告的措辞,与专家和记者在20世纪90年代末和21世纪初开始给出的建议类似——简单来说,就是要小心你从谁那里下载人工智能模型,以及你下载了什么,尤其是当开发者规模较小、知名度较低时。

因为,对于每一个只想分享自己成果的人,都可能存在一个不安全的信息分享对象——或者一个可能获得你电脑访问权限的人。当然,他们可能是恶意行为者。他们也可能是尚未有能力安全处理此类权限的人。

传统软件也经历过类似的历程。时至今日,明智的习惯包括对下载文件的来源保持谨慎,即便后来出现了筛查恶意应用的应用商店。现在,我们也必须将这种方法扩展到人工智能领域。那里就像狂野的西部。即使包装得光鲜亮丽,也要如此对待它。


文章标签: #人工智能安全 #微软警告 #独立模型 #网络安全 #数据保护

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。