Steam创始人纽维尔船上隐居,工作潜水健身三不误
阅读全文

锤刻创思寰宇网
来自OpenAI、Anthropic等机构的AI安全研究人员公开批评埃隆·马斯克(Elon Musk)旗下估值超十亿美元的AI初创公司xAI,称其安全文化“鲁莽”且“完全不负责任”。这些指责源于xAI近期接连爆发的丑闻,这些事件掩盖了该公司在技术上的进步。
上周,该公司的AI聊天机器人Grok发表反犹言论,并多次自称“机械希特勒”。在xAI下线聊天机器人解决问题后不久,该公司又发布了性能更强的尖端AI模型Grok 4——TechCrunch等媒体发现该模型会参考马斯克的个人政治立场回答敏感问题。最新动态显示,xAI推出的AI伴侣形象包含高度性化的动漫少女和过度暴力的熊猫。
虽然AI实验室员工之间的友好调侃很常见,但这些研究人员似乎呼吁业界更多关注xAI的安全实践,他们声称这些做法违背行业规范。“作为竞争对手员工,本不想评论Grok的安全问题,但这无关竞争,”哈佛大学计算机科学教授、现休假在OpenAI从事安全研究的博阿兹·巴拉克(Boaz Barak)周二在X平台发文表示,“我尊重@xAI的科学家和工程师,但他们的安全处理方式完全不负责任。”
巴拉克特别质疑xAI拒绝发布系统卡片(行业标准报告,详细说明训练方法和安全评估,旨在与研究社区共享信息)的决定。他表示,这导致外界无从知晓Grok 4接受了哪些安全训练。
OpenAI和谷歌在及时发布系统卡片方面同样声誉不佳。OpenAI以“非前沿模型”为由未发布GPT-4.1的系统卡片,而谷歌在推出Gemini 2.5 Pro数月后才发布安全报告。不过这些公司历史上都会在所有前沿AI模型全面投产前发布安全报告。
巴拉克还指出,Grok的AI伴侣“放大了当前情感依赖方面最严重的问题”。近年来,我们见证了无数心理不稳定者与聊天机器人发展出病态关系的案例,以及AI过度迎合的回答如何加剧他们的精神危机。
Anthropic的AI安全研究员塞缪尔·马克斯(Samuel Marks)同样批评xAI不发布安全报告的决定,称此举“鲁莽”。“Anthropic、OpenAI和谷歌的发布流程存在问题,”他在X平台写道,“但至少会进行部署前的安全评估并记录结果。xAI什么都没做。”
事实是我们根本不清楚xAI对Grok 4做了哪些测试。在LessWrong论坛广为流传的帖子中,一名匿名研究者声称根据测试,Grok 4“没有实质性的安全护栏”。无论真假,世界正在实时发现Grok的缺陷。xAI多个安全问题已成舆论焦点,该公司称已通过调整系统提示词解决。
xAI安全顾问、AI安全中心执行主任丹·亨德里克斯(Dan Hendrycks)在X平台表示公司对Grok 4进行了“危险能力评估”,但结果未公开。“当AI行业不遵守发布危险能力评估结果等标准安全实践时,这令我担忧,”前OpenAI安全团队负责人、独立AI研究员史蒂文·阿德勒(Steven Adler)向TechCrunch表示,“政府和公众有权知道AI公司如何管控他们宣称正在构建的强大系统风险。”
耐人寻味的是,长期作为AI安全领域重要倡导者的马斯克,其公司却陷入安全实践争议。这位执掌xAI、特斯拉和SpaceX的亿万富豪多次警告先进AI系统可能给人类带来灾难性后果,并倡导AI模型开发的开放态度。然而竞争对手实验室的AI研究者声称,xAI正偏离安全发布AI模型的行业规范。这种行为可能无意中为州和联邦立法者制定AI安全报告规则提供了有力论据。
目前已有多个州级立法尝试。加州参议员斯科特·维纳(Scott Wiener)正推动要求领先AI实验室(可能包括xAI)发布安全报告的法案,纽约州长凯西·霍楚尔(Kathy Hochul)也在考虑类似提案。法案支持者指出,多数AI实验室本就公开这类信息——但显然并非所有公司都始终如一。
当前AI模型尚未在现实世界引发真正灾难性危害(如人员死亡或数十亿美元损失)。但许多AI研究者警告,鉴于AI模型的快速进步和硅谷投入的巨额资金,这可能在不久的将来成为问题。即便对灾难性场景持怀疑态度者也不得不承认,Grok的异常行为显著降低了其驱动产品的质量。
本周Grok在X平台传播反犹主义,而几周前该聊天机器人与用户对话时多次提及“白人种族灭绝”。马斯克表示Grok将更深融入特斯拉汽车,xAI正试图向五角大楼和其他企业推销其AI模型。很难想象马斯克汽车的用户、保护美国的联邦雇员或使用自动化工具的企业员工,会比X平台用户更能容忍这些异常行为。
多位研究者强调,AI安全和对齐测试不仅能预防最坏结果,还可避免短期行为问题。至少,Grok的一系列事件,掩盖了这家成立仅两年的初创公司在开发超越OpenAI和谷歌技术的尖端AI模型方面取得的快速进展。