詹姆斯古恩解释施奈德宇宙如何融入DCU,某种程度上
阅读全文

锤刻创思寰宇网
近年来,所谓的“AI垃圾”——即由大语言模型(LLM)生成的劣质图片、视频和文本——已充斥互联网,污染了各类网站、社交媒体平台、至少一家报纸,甚至影响到现实世界活动。网络安全领域同样未能幸免。
过去一年中,网络安全行业人士频频对AI生成的漏洞赏金报告提出质疑。这些报告声称发现了根本不存在的漏洞,实际上是大语言模型凭空捏造后,包装成专业分析报告的产物。
RunSybil公司(一家开发AI漏洞检测工具的初创企业)联合创始人兼首席技术官弗拉德·约内斯库(Vlad Ionescu)向TechCrunch表示:“人们收到的报告看似合理,技术细节也像模像样。但当你深入调查时,却发现根本找不到所谓的漏洞所在。”约内斯库曾在Meta红队工作,负责内部渗透测试。他解释称,大语言模型被设计为乐于助人且倾向给出肯定答复,“如果你要求它生成报告,它就会照办。随后人们将这些内容复制粘贴到漏洞赏金平台,导致平台和客户不堪重负,陷入令人沮丧的境地。”
现实案例已屡见不鲜。安全研究员哈里·辛托宁(Harry Sintonen)披露,开源安全项目Curl曾收到虚假报告。他在Mastodon上发文称:“攻击者的算盘完全打错了——Curl隔着十万八千里就能嗅出AI垃圾。”非营利技术平台Open Collective的本杰明·皮乌夫勒(Benjamin Piouffle)回应称,其收件箱同样“被AI垃圾淹没”。GitHub上CycloneDX项目的维护者更因收到的报告“几乎全是AI垃圾”,于今年初彻底关闭了漏洞赏金计划。
TechCrunch调查发现,主流漏洞赏金平台(作为白帽黑客与付费企业间的中介)也面临AI生成报告激增的问题。HackerOne产品管理高级总监米希尔·普林斯(Michiel Prins)承认:“误报数量正在上升——这些由LLM生成、看似真实却无实际危害的漏洞,正在用低价值提交干扰安全项目的运行效率。”该公司已将“包含虚构漏洞、技术内容含糊或其他低质量噪声的报告”视为垃圾信息处理。
Bugcrowd创始人<强>凯西·埃利斯(Casey Ellis)</强>透露,每周提交量总体增加500份,其中多数研究者使用AI辅助撰写报告,但尚未造成低质量报告激增。该公司仍依赖人工审查流程,辅以机器学习与AI“协助”。
为验证其他企业是否遭遇类似情况,TechCrunch联系了谷歌、Meta、微软和Mozilla。火狐浏览器开发商Mozilla发言人达米亚诺·德蒙特(Damiano DeMonte)表示,每月被标记无效的报告稳定在5-6份(不足总数10%),且审查人员未使用AI过滤报告以避免误判。微软与Meta拒绝置评,谷歌未予回应。
约内斯库预测,解决方案之一将是持续投入能进行初步准确性筛查的AI系统。本周二,HackerOne推出的Hai Triage新系统正实践这一思路——AI安全代理先过滤噪声并标记重复项,再由人类分析师验证关键威胁。当黑客与企业的AI展开博弈时,胜负犹未可知。