谷歌紧急修复Chrome高危漏洞,请立即更新避免攻击
阅读全文

锤刻创思寰宇网
网络安全行业正在上演现实版的“天塌了”预言。企业纷纷宣称人工智能将彻底改变安全格局,这意味着大型语言模型(LLM)每新增一项功能,都可能被渲染成世界末日——最新例证便是能成功绕过微软Defender的AI恶意软件诞生。
据Dark Reading周三报道,Outflank(网络安全攻防团队)的研究人员计划在2025年8月的Black Hat(黑帽大会)上展示这款新型AI恶意软件。但先别急着卸载Windows Defender——该团队官网自称是“由资深专家组成的高水平红队”,专精于“评估防御体系对抗高级威胁的能力”和“培训安全团队提升事件响应水平”。其首席攻击专家凯尔·艾弗里(Kyle Avery)透露,他耗费三个月时间及约1500美元训练开源模型Qwen 2.5实现了这一突破。
但关键问题在于:实验显示该模型生成的恶意软件仅有8%的概率能完全绕过微软终端防护系统。虽然这已远超Anthropic(不足1%)和DeepSeek(低于0.5%)的表现,但远非脚本小子们期待的“即插即用”效果。
这类模型的性能必将随时间提升。当聊天机器人巨头们开始采用机器学习领域自90年代沿用至今的强化学习技术后,理论上持续“鞭策”模型就能提升其任务完成度。那些坐拥过剩GPU资源的犯罪集团,完全可能投入更多时间和资金进行优化。
这引发了两个深层思考:此类能力的进化是否存在上限?当微软Defender针对性升级后又将如何?尽管微软不以及时跟进尖端技术著称(尽管连记事本都支持Markdown了),但防御体系的动态博弈永无止境。
Outflank的研究成果绝非危言耸听——它确实为安全行业长期渲染的AI威胁论提供了有力实证。但相比这种氛围型攻击,更值得警惕的或许是红队工具泄露引发的恶意软件传播、社会工程攻击的单点突破威力,以及黑客借力监控国家体系的潜在风险。