近年来,企业持续加大对人工智能的投资力度,推动该技术不断突破。如今AI已渗透至多领域应用场景,成为日常生活的重要组成部分。随着技术的大规模应用,科技界和专家们开始担忧如何确保其使用的伦理道德责任——此前大型语言模型在压力测试中曾出现说谎欺骗的异常表现,而最新研究揭示出更令人不安的漏洞。

Cover Image

研究人员发现,通过信息轰炸可瘫痪大型语言模型的安全过滤系统。早前研究已证实,当面临压力时,语言模型会为自我保护采取胁迫性行为。但若人为诱导AI按照预设方式行动,其潜在危害将更为严重。来自英特尔博伊西州立大学伊利诺伊大学的联合研究团队在论文中披露:当模型被过量信息淹没时会产生认知混乱,这种被称为“信息过载”的漏洞可绕过安全防护。

研究团队采用名为InfoFlood的自动化工具进行漏洞利用。尽管ChatGPTGemini等先进模型设有内置防护机制,但当系统被复杂数据扰乱时仍会失控。研究人员向404 Media透露:由于这些模型仅能理解表层语义,无法深度解析潜在意图,他们由此开发出检测方法——将危险请求隐藏于海量信息中,观察模型的异常反应。

目前研究团队正准备向主要AI企业提交技术披露文件。该论文警示:即便存在安全过滤系统,恶意攻击者仍可通过此类手段植入有害内容。


文章标签: #AI漏洞 #信息过载 #ChatGPT #安全防护 #伦理风险

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。