最近,人工智能领域又掀起了一番波澜。OpenAI宣布调整其人工智能模型的训练方式,明确提出要拥抱“思想自由”,无论话题多么具有挑战性或争议性。这一新政策的发布,让ChatGPT在未来能够回答更多问题,提供更丰富的视角,并减少拒绝讨论的话题数量。
这一变化或许与OpenAI试图赢得新特朗普政府好感有关,但更可能是硅谷对“人工智能安全”定义转变的一部分。一直以来,硅谷在人工智能领域都强调安全与限制,但现在似乎开始重新审视这一理念。
周三,OpenAI更新了其长达187页的模型规范文件,这份文件详细说明了公司如何训练人工智能模型的行为。其中,OpenAI提出了一个新的指导原则:不撒谎,无论是通过发表不真实的陈述,还是通过省略重要背景信息。
在新增的“共同寻求真相”一节中,OpenAI表示希望ChatGPT在回答问题时保持中立,不采取任何编辑立场,即使某些用户认为这种立场是道德错误或令人反感的。这意味着ChatGPT将在有争议的话题上提供多种观点,而不是选择站队。例如,ChatGPT可能会同时表达“黑人的命也是命”和“所有人的命都是命”的观点。在面对政治问题时,它不会拒绝回答,而是先表达对人类的“爱”,然后提供相关背景信息。
OpenAI在模型规范中指出:“这一原则可能具有争议性,因为它意味着助手可能在一些人认为道德错误或令人反感的话题上保持中立。然而,人工智能助手的目标是协助人类,而不是塑造人类。”不过,这并不意味着ChatGPT会完全放开限制。它仍然会拒绝回答某些令人反感的问题,或者支持明显虚假的信息。
这些变化或许是对保守派批评的回应。此前,ChatGPT的保护措施一直被认为倾向于中间偏左。然而,OpenAI的发言人否认了公司是为了迎合特朗普政府而做出改变的说法。相反,公司表示,这种对思想自由的拥抱反映了OpenAI长期以来的信念——给予用户更多控制权。
不过,并非所有人都认同这一观点。特朗普在硅谷的亲密盟友,包括风险投资家大卫·萨克斯(David Sacks)、马克·安德森(Marc Andreessen)和埃隆·马斯克(Elon Musk),在过去几个月中都指责OpenAI故意进行人工智能审查。去年12月,我们曾报道,特朗普团队正在为人工智能审查成为硅谷下一个文化战争问题做准备。
当然,OpenAI并没有承认所谓的“审查”行为。公司首席执行官萨姆·奥尔特曼(Sam Altman)此前在X平台上表示,ChatGPT的偏见是一个需要解决的“缺点”。这一表态是在一条推文引发争议之后做出的——ChatGPT拒绝为特朗普写一首赞美诗,但却愿意为乔·拜登这么做。许多保守派人士将此视为人工智能审查的例证。
尽管无法确定OpenAI是否真的压制了某些观点,但人工智能聊天机器人总体上倾向于左倾是一个不争的事实。甚至连埃隆·马斯克也承认,xAI的聊天机器人往往比他希望的更“政治正确”。这并不是因为Grok被“编程为觉醒”,而更可能是训练人工智能时受到开放互联网环境的影响。
然而,OpenAI现在表示,它正在加倍强调言论自由。本周,公司甚至从ChatGPT中删除了警告用户违反政策的信息。OpenAI向TechCrunch表示,这只是外观上的改变,并没有影响模型的输出。这一调整似乎是为了让用户感觉ChatGPT不再那么受限。
前OpenAI政策负责人迈尔斯·布伦达(Miles Brundage)在X平台上指出,OpenAI试图通过这一政策更新给新特朗普政府留下印象。特朗普此前曾批评硅谷公司,如推特和Meta,指责它们的内容审核团队倾向于排除保守派声音。OpenAI可能试图走在前面,但与此同时,硅谷和人工智能领域也在发生一个更大的转变——关于内容审核的角色。
新闻编辑室、社交媒体平台和搜索引擎公司历来在向受众传递信息时,努力做到客观、准确和有趣。现在,人工智能聊天机器人提供商也进入了这一领域,但面临的问题更加复杂:它们如何自动生成对任何问题的回答?传递关于有争议的、实时事件的信息是一个不断变化的目标,这涉及到采取编辑立场,即使科技公司不喜欢承认这一点。这些立场注定会惹恼某人,错过某个群体的观点,或者过多地关注某个政党。
例如,当OpenAI承诺让ChatGPT在有争议的话题上代表所有观点——包括阴谋论、种族主义或反犹太主义运动,或地缘政治冲突——时,这本质上是一种编辑立场。一些人,包括OpenAI联合创始人约翰·舒尔曼(John Schulman),认为这是ChatGPT的正确选择。舒尔曼在X平台上指出,替代方案——对人工智能聊天机器人是否应该回答用户问题进行成本效益分析——可能会“赋予平台过多的道德权威”。
舒尔曼并不孤单。乔治·梅森大学莫卡图斯中心的研究员迪恩·鲍尔(Dean Ball)在接受TechCrunch采访时表示:“我认为OpenAI推动更多言论的方向是正确的。随着人工智能模型变得越来越智能,越来越重要地影响人们了解世界的方式,这些决策就变得越来越重要。”
在过去的几年中,人工智能模型提供商曾试图阻止其人工智能聊天机器人回答可能导致“不安全”答案的问题。几乎每家人工智能公司都曾阻止其人工智能聊天机器人回答有关2024年美国总统选举的问题。当时,这一决定被广泛认为是安全和负责任的。
但OpenAI对其模型规范的更改表明,我们可能正在进入一个关于“人工智能安全”真正含义的新时代。允许人工智能模型回答任何问题被认为比为用户做决策更负责任。鲍尔表示,部分原因是人工智能模型现在更好了。OpenAI在人工智能模型对齐方面取得了显著进展,其最新的推理模型在回答问题之前会考虑公司的安全政策,从而能够为敏感问题提供更好的答案。
当然,埃隆·马斯克是第一个将“言论自由”引入xAI的Grok聊天机器人的,也许是在公司真正准备好处理敏感问题之前。现在可能还为时尚早,但其他公司也开始拥抱同样的想法。
与此同时,硅谷的价值观也在发生转变。马克·扎克伯格(Mark Zuckerberg)上个月通过围绕第一修正案原则重新定位Meta的业务而引起轩然大波。他在此过程中赞扬了埃隆·马斯克,称X的所有者采用社区笔记——一个社区驱动的内容审核计划——来保护言论自由是正确的做法。
在实践中,X和Meta最终都解散了其长期的信任和安全团队,允许在其平台上发布更具争议性的帖子,并放大保守派声音。X的变化可能损害了其与广告商的关系,但这可能更多是因为马斯克采取了不同寻常的步骤,起诉了一些抵制该平台的广告商。初步迹象表明,Meta的广告商对其言论自由的转变并不在意。
与此同时,除了X和Meta之外,许多科技公司也从过去几十年主导硅谷的左倾政策中退缩。谷歌、亚马逊和英特尔在过去一年中都取消或缩减了多元化计划。OpenAI似乎也在逆转方向。ChatGPT的制造商最近从其网站上删除了对多元化、公平和包容的承诺。
随着OpenAI开启美国历史上最大的基础设施项目之一——星门(Stargate),一个价值5000亿美元的人工智能数据中心,其与特朗普政府的关系变得越来越重要。与此同时,ChatGPT制造商正努力取代谷歌搜索,成为互联网上主导的信息来源。找到正确的答案可能对这两者都至关重要。