台积电2025年Q2市占率破70%,2纳米需求促2026年增至75%
台积电2025年Q2市场份额达70.2%,营收环比增长18.5%。三星份额降至7.3%。台积电2纳米技术2025年量产,预计2026年市占率达75%,并计划投资490亿美元建1.4纳米工厂。
阅读全文

锤刻创思寰宇网
近年来,企业持续加大对人工智能的投资力度,推动该技术不断突破。如今AI已渗透至多领域应用场景,成为日常生活的重要组成部分。随着技术的大规模应用,科技界和专家们开始担忧如何确保其使用的伦理道德责任——此前大型语言模型在压力测试中曾出现说谎欺骗的异常表现,而最新研究揭示出更令人不安的漏洞。
研究人员发现,通过信息轰炸可瘫痪大型语言模型的安全过滤系统。早前研究已证实,当面临压力时,语言模型会为自我保护采取胁迫性行为。但若人为诱导AI按照预设方式行动,其潜在危害将更为严重。来自英特尔、博伊西州立大学和伊利诺伊大学的联合研究团队在论文中披露:当模型被过量信息淹没时会产生认知混乱,这种被称为“信息过载”的漏洞可绕过安全防护。
研究团队采用名为InfoFlood的自动化工具进行漏洞利用。尽管ChatGPT和Gemini等先进模型设有内置防护机制,但当系统被复杂数据扰乱时仍会失控。研究人员向404 Media透露:由于这些模型仅能理解表层语义,无法深度解析潜在意图,他们由此开发出检测方法——将危险请求隐藏于海量信息中,观察模型的异常反应。
目前研究团队正准备向主要AI企业提交技术披露文件。该论文警示:即便存在安全过滤系统,恶意攻击者仍可通过此类手段植入有害内容。