当未来的人们回顾人工智能技术的发展历程时,2025年或许会被视为一个关键的转折点。在这一年,人工智能行业开始朝着更加包容的方向迈出实质性步伐,并且积极拥抱去中心化的框架,这种框架能够认可并公平地补偿每一个参与者。
人工智能的发展已经在众多领域引发了变革,但其快速的普及也引发了一系列问题,比如数据所有权、隐私保护以及版权侵权等。目前,人工智能的运作模式相对集中,最强大的模型大多掌握在少数公司手中,这使得内容创作者往往被边缘化。
以OpenAI为例,作为全球最知名的人工智能公司之一,它曾承认了这一现状。2024年1月,OpenAI向英国上议院通信和数字特别委员会表示,如果没有使用受版权保护的材料进行训练,它就无法打造出像ChatGPT这样的标志性聊天机器人。
OpenAI用2023年之前互联网上公开发布的所有内容来训练ChatGPT,但那些创造这些内容的人——其中大部分是受版权保护的——却没有得到任何补偿,这成为了主要的争议焦点。
不过,像ASI联盟提出的去中心化人工智能项目,为人工智能模型的开发提供了一种全新的替代方案。该联盟正在构建一个框架,旨在赋予内容创作者控制自己数据的方法,并且如果他们选择将自己的材料与人工智能模型开发者共享,还能获得公平的回报。这是一种更加符合伦理的人工智能开发方式,2025年可能会是它获得更多关注的一年。
人工智能面临的版权难题
OpenAI并非唯一被指控侵犯版权的人工智能公司。包括那些声称是开源的模型,如Meta Platforms的Llama 3模型在内的大多数人工智能模型,都被指有从公共互联网抓取训练数据的行为。
人工智能开发者通常会随意使用他们在网络上找到的任何内容,完全忽视了其中许多材料是受版权保护的事实。版权法的设立初衷是为了保护原创作品的创作者,比如书籍、文章、歌曲、软件、艺术作品和照片等,防止他们被剥削,并且使未经授权使用这些材料成为非法行为。
像OpenAI、Meta、Anthropic、StabilityAI、Perplexity AI、Cohere和AI21 Labs等公司,都是通过声称“合理使用”来绕过版权法的约束。“合理使用”是版权法中一个模糊的条款,它允许在无需获得创作者许可的情况下有限使用受保护的内容。但究竟什么是“合理使用”并没有明确的界定,许多作者认为人工智能正在威胁到他们的生计。
因此,许多内容创作者开始诉诸法律手段来维护自己的权益,其中《纽约时报》对OpenAI提起的诉讼就是一个典型的例子。在诉讼中,《纽约时报》指控OpenAI在训练其大型语言模型时,未经许可就摄入了数千篇文章,构成了版权侵权。该媒体组织认为这种做法是非法的,因为ChatGPT是一个竞争产品,它试图从《纽约时报》网站上“抢夺”受众。
这场诉讼引发了广泛的讨论——人工智能公司是否应该被允许随意使用互联网上的任何内容,还是应该被要求先征求许可,并对那些创造训练数据的人进行补偿?
目前,共识似乎正在向后者倾斜。例如,已故的前OpenAI研究员苏奇尔·巴拉吉在接受《纽约时报》采访时曾表示,他被指派负责收集数据以训练ChatGPT模型。他的工作内容包括从各种可能的来源抓取内容,包括社交媒体上的用户生成帖子、盗版书籍档案以及付费墙后的文章,所有这些内容都是在未经许可的情况下被抓取的。
巴拉吉最初认同OpenAI的观点,即如果信息是在线发布且免费可用的,那么抓取就构成了合理使用。然而,后来他开始质疑这种立场,意识到像ChatGPT这样的产品可能会损害内容创作者的利益。最终,他无法再为抓取数据的做法辩护,于2024年夏天辞去了公司职务。
去中心化人工智能的有力论据
巴拉吉离开OpenAI似乎与人工智能公司意识到在线随意抓取任何内容的做法不可持续,内容创作者需要法律保护的认识相契合。
这方面的证据可以从过去一年宣布的一系列内容许可协议中看出。OpenAI已经与包括《金融时报》、新闻集团、康泰纳仕、阿克塞尔·斯普林格、美联社和Reddit在内的多家知名内容出版商达成了协议,Reddit在其论坛上托管着数百万页用户生成的内容。其他人工智能开发商,如谷歌、微软和Meta,也建立了类似的合作伙伴关系。
不过,这些安排是否能够真正令人满意还有待观察,特别是当人工智能公司产生了数十亿美元的收入时。尽管内容许可协议的条款尚未公开,但据《信息》杂志报道,这些协议每年的价值最多只有数百万美元。考虑到OpenAI前首席科学家伊利亚·苏茨克弗在2016年的薪水高达190万美元,提供给出版商的补偿金额可能远远低于内容的实际价值。
此外,还有数百万较小的内容创作者,如博主、社交媒体影响者等,他们仍然被排除在这些协议之外。
围绕人工智能侵犯版权的争论可能会持续数年而得不到解决,而围绕数据抓取的法律模糊性,以及从业者对这种做法不道德的认识日益增强,都在加强去中心化框架的论据。
去中心化人工智能框架为开发者提供了一个更有原则的人工智能训练模型,在这个模型中,内容创作者的权利得到尊重,每个贡献者都能得到公平的回报。
去中心化人工智能的核心是区块链技术,它使得人工智能模型的开发、训练、部署和治理能够在由每个人拥有的分布式全球网络上进行。这意味着每个人都可以参与构建透明的人工智能系统,而不是通常被描述为“黑箱”的集中式、公司拥有的人工智能模型。
正当围绕人工智能版权侵权的争论不断加剧之际,去中心化人工智能项目正在取得进展;
2025年有望成为向更透明、更符合伦理的人工智能开发转变的重要一年。
去中心化人工智能在行动
2024年底,三家基于区块链的人工智能初创公司成立了人工超级智能(ASI)联盟,这是一个致力于创造“去中心化超级智能”以驱动任何人都可以使用的先进人工智能系统的组织。
ASI联盟称自己是人工智能研究和开发中最大的开源、独立参与者。它由奇点网创建,奇点网开发了一个去中心化的人工智能网络和计算层;Fetch.ai专注于构建能够无需人类协助执行复杂任务的自主人工智能代理;以及海洋协议,海洋协议是人工智能训练数据透明交换的创造者。
ASI联盟的使命是提供一种替代集中式人工智能系统的方案,强调开源和去中心化平台,包括数据和计算资源。
为了保护内容创作者,ASI联盟正在基于海洋协议的技术构建一个交换框架,任何人都可以贡献用于人工智能训练的数据。用户将能够将数据上传到基于区块链的系统,并保留其所有权,每当人工智能模型或开发者访问时都能获得奖励。其他人可以通过帮助标记和注释数据以使其更易于人工智能模型访问,并因执行这项工作而获得奖励。通过这种方式,ASI联盟促进了开发者以更符合伦理的方式获取创建人工智能模型所需的训练数据。
联盟成立后不久,就启动了ASI Train计划,专注于开发更透明、更符合伦理的“特定领域模型”,这些模型专门针对机器人技术、科学和医学等领域。其首个模型是Cortex,据说该模型是基于人脑构建的,旨在为现实世界环境中的自主机器人提供动力。
这些专门模型与通用大型语言模型不同,通用大型语言模型在回答问题和创建内容及图像方面表现出色,但在被要求解决需要深厚专业知识的更复杂问题时就不太有用。但创建专门模型将是一项社区工作:ASI联盟需要行业专家提供必要的数据来训练模型。
Fetch.ai的首席执行官胡马尤恩·谢赫表示,ASI联盟的去中心化所有权模式创造了一个生态系统,“在这个生态系统中,个人可以支持开创性技术并分享价值创造”。
没有专业知识的用户可以购买并“质押”FET代币,成为去中心化人工智能模型的部分所有者,并在这些模型被人工智能应用程序使用时获得一部分收入。
对于内容创作者来说,去中心化人工智能方法的好处是显而易见的。ASI的框架让他们能够控制自己的数据,并跟踪其何时被人工智能模型使用。它整合了智能合约中编码的机制,以确保每个人都能得到公平补偿。参与者因贡献计算资源、数据和专业知识,或通过质押支持生态系统而获得奖励。
ASI联盟实行去中心化治理模式,代币持有者可以对关键决策进行投票,以确保项目的发展能够惠及利益相关者,而不是公司的股东。
人工智能为每个人服务是必需的
去中心化人工智能取得的进展令人兴奋,而且出现得正是时候。人工智能正在迅速发展,目前集中式人工智能公司处于采用的前沿;这对许多人来说是一个主要的担忧点。
鉴于人工智能的变革潜力以及它对个人生计构成的风险,行业向更负责任的模式转变至关重要。人工智能系统应该为每个人的利益而开发,这意味着每个参与者都应因其参与而得到回报。只有去中心化人工智能系统已经证明它们能够做到这一点。
去中心化人工智能不仅仅是一个锦上添花的东西,而是一个必需品,它代表着唯一可行的替代方案,能够打破大型科技公司对创造力的垄断。