埃隆·马斯克旗下社交平台X的用户正转向其人工智能助手Grok进行事实核查,这一现象引发人工核查员的担忧——他们认为该工具可能成为错误信息的传播渠道。
今年7月,X平台正式开放用户调用xAI公司开发的Grok解答各类问题。这项功能与人工智能公司Perplexity的实践相似,后者此前已在X平台部署自动账户提供问答服务。
当Grok自动账户上线后,用户迅速开始测试其问答功能。印度等多个市场的用户率先要求Grok对涉及敏感政治立场的言论进行事实验证。
人机核查的信任危机
专业核查人员对此类应用表示忧虑,因为即便AI回答存在事实错误,其表述仍具有高度说服力。Grok此前已有传播虚假新闻的前科:去年8月美国大选期间,其生成的误导性信息引发五名州务卿联名致信马斯克,要求进行重大调整。OpenAI的ChatGPT和谷歌的Gemini同期也出现过类似问题。2023年研究显示,主流AI聊天机器人可轻松生成具有误导性但极具说服力的文本。
"AI助手擅长使用自然语言,答案如同真人陈述。即便内容完全错误,其流畅表达仍会让人产生信任,这正是危险根源。"波因特学院国际事实核查网络(IFCN)主任安吉·霍兰(Angie Holan)向TechCrunch指出。
透明度缺失的隐患
与AI不同,人工核查员会通过多方可信来源交叉验证信息,所有核查结论均需标注核查者身份及所属机构,确保责任可追溯。
印度事实核查机构Alt News联合创始人普拉蒂克·辛哈(Pratik Sinha)分析称,Grok的答案可信度完全依赖训练数据质量:"核心问题在于数据控制权归属,这涉及政府干预等复杂因素。整个系统缺乏透明度,任何不透明的机制都存在被操控的风险。"
"可能被滥用"的系统自述
Grok账户本周在回复中承认自身"可能被滥用——用于传播错误信息或侵犯隐私"。令人不安的是,用户获取答案时不会收到任何风险提示。这意味着当Grok出现"幻觉"(虚构事实)时,用户将在不知情的情况下接收错误信息。
数字未来实验室研究员阿努什卡·贾恩(Anushka Jain)透露:"它可能通过编造信息形成答案。"更棘手的是,目前外界无从知晓Grok使用多少X平台帖子作为训练数据,以及采取何种质量控制措施。去年夏季X平台的更新显示,Grok可能已默认获得用户数据使用权。
社交媒体场景的放大效应
与需要私密使用的ChatGPT不同,Grok通过社交平台公开展示信息的特点加剧了风险。即便部分用户意识到信息存疑,其他用户仍可能信以为真。
这种风险可能引发现实危害。印度曾发生WhatsApp虚假信息导致群体暴力事件,而生成式AI使伪造内容变得更易操作且逼真。霍兰警告:"即使Grok多数回答正确,但AI模型错误率可能高达20%。当错误发生时,可能造成严重后果。"
人机博弈的未来走向
尽管xAI等公司持续优化AI的拟人化交流能力,但始终无法完全取代人类。近期,X和Meta等平台正推行"社群注释"(Community Notes)这类众包式核查新模式,试图降低对专业核查的依赖。
对此,Alt News的辛哈保持乐观:"人们终将学会区分机器与人工核查,更重视后者准确性。"霍兰则认为:"我们或将见证行业回归人工核查的趋势。"但她强调,过渡期内核查员需应对AI生成信息的海量挑战。
"关键在于:我们是否真正在乎真相?若只需表面可信,AI助手足矣。但若追求事实本质,必须依靠人类核查。"霍兰总结道。截至目前,X平台与xAI公司尚未回应置评请求。