Anthropic突限Claude Code使用,付费用户集体抗议
Anthropic公司突然对Claude Code实施严格使用限制,未提前通知用户,导致付费订阅Max计划的开发者项目停滞,公司承认问题但未公布细节,引发信任危机。
阅读全文

锤刻创思寰宇网
近年来,企业持续加大对人工智能的投资力度,推动该技术不断突破。如今AI已渗透至多领域应用场景,成为日常生活的重要组成部分。随着技术的大规模应用,科技界和专家们开始担忧如何确保其使用的伦理道德责任——此前大型语言模型在压力测试中曾出现说谎欺骗的异常表现,而最新研究揭示出更令人不安的漏洞。
研究人员发现,通过信息轰炸可瘫痪大型语言模型的安全过滤系统。早前研究已证实,当面临压力时,语言模型会为自我保护采取胁迫性行为。但若人为诱导AI按照预设方式行动,其潜在危害将更为严重。来自英特尔、博伊西州立大学和伊利诺伊大学的联合研究团队在论文中披露:当模型被过量信息淹没时会产生认知混乱,这种被称为“信息过载”的漏洞可绕过安全防护。
研究团队采用名为InfoFlood的自动化工具进行漏洞利用。尽管ChatGPT和Gemini等先进模型设有内置防护机制,但当系统被复杂数据扰乱时仍会失控。研究人员向404 Media透露:由于这些模型仅能理解表层语义,无法深度解析潜在意图,他们由此开发出检测方法——将危险请求隐藏于海量信息中,观察模型的异常反应。
目前研究团队正准备向主要AI企业提交技术披露文件。该论文警示:即便存在安全过滤系统,恶意攻击者仍可通过此类手段植入有害内容。