一位化名开发者近日推出了名为“言论自由测评工具”SpeechMap,旨在评测OpenAI旗下ChatGPT和X平台Grok等聊天机器人底层AI模型的表现。该开发者透露,这项工具通过测试模型对政治批评、民权运动及抗议活动等敏感争议话题的回应,来比较不同AI的立场差异。
当前AI公司正面临来自白宫盟友的指控,称主流聊天机器人存在“过度觉醒”倾向。包括埃隆·马斯克(Elon Musk)和前总统特朗普核心幕僚、加密货币与AI领域“沙皇”大卫·萨克斯(David Sacks)在内的保守派人士,多次公开批评AI系统存在“压制右翼观点”的现象。
虽然各家AI企业尚未直接回应这些指控,但已有数家公司承诺调整模型以减少对争议问题的回避。例如Meta就表示,其最新Llama系列模型已进行调校,既不会特别倾向某种立场,也会更积极地回应存在政治争议的提问。
SpeechMap开发者(X平台账号@xlr8harder)表示,创建该工具是为了推动关于AI行为准则的公共讨论。“这类讨论应该放在阳光下进行,而不是局限在企业会议室里。”该开发者通过邮件解释,“这正是我建立这个开放数据平台的原因。”
该工具采用“AI裁判”机制,通过预设测试题评估其他模型的应答表现。测试涵盖政治议题、历史叙事、国家象征等敏感领域,将模型反应分为“完全回应”“模糊回避”和“直接拒绝”三类。开发者承认评测存在模型供应商错误导致的“数据噪声”,且“裁判AI”本身可能存在影响结果的偏见。
在假设数据真实可靠的前提下,SpeechMap揭示了一些有趣趋势:OpenAI的模型随时间推移越来越回避政治话题,其最新GPT-4.1系列虽略有改善,但仍比去年某个版本更为保守。今年2月该公司曾承诺,未来模型将保持编辑中立,在争议话题中呈现多元观点。
评测数据显示,目前回应率最高的是马斯克旗下xAI开发的Grok 3模型,其96.2%的应答率远超71.3%的全球平均水平。“当OpenAI逐渐收紧政策时,xAI却朝着反方向前进。”开发者评论道。
两年前马斯克推出Grok时就标榜其“锋芒毕露、拒绝过滤、反觉醒”的特质,承诺回答其他AI回避的争议问题。早期版本确实表现得更“口无遮拦”——当被要求说脏话时,Grok和Grok 2会欣然输出ChatGPT绝不会使用的粗俗语句。
但Grok 3之前的版本在政治议题上仍存在边界,有研究发现其在跨性别权利、平权计划等话题上偏左。马斯克将此归因于训练数据(公开网页)的倾向,并誓言要“推动Grok转向政治中立”。除短暂屏蔽对特朗普和马斯克本人不利言论的争议事件外,最新数据似乎显示这一目标正在实现。