地牢潜行者最终测试开启,新增角色与系统优化
阅读全文

锤刻创思寰宇网
英国的数据(使用与访问)法案现已通过,没有包括要求人工智能工具声明使用版权材料的修正案,也没有任何条款允许版权持有者选择退出将其作品用作训练数据。这一切让我不禁怀疑,是否有什么东西是人工智能无法吞噬和反刍的。嗯,美国针对人工智能公司Anthropic(Anthropic)的一起法律案件为这灰暗的一幕提供了一个绝妙的点睛之笔。
据美联社报道,一名联邦法官裁定,Anthropic(Anthropic)在训练大型语言模型Claude时使用版权材料并未违法,因为这在美国版权法下属于“合理使用”。然而,让Anthropic(Anthropic)深陷法律困境的是该公司如何获取这些版权材料——具体来说,是数千本未购买而是在网上“找到”的书籍。长话短说,人工智能可以抓取版权内容,但不能盗版获取。
背景是,这一切始于去年夏天,当时作家安德里亚·巴茨(Andrea Bartz)、查尔斯·格雷伯(Charles Graeber)和柯克·华莱士·约翰逊(Kirk Wallace Johnson)首次对Anthropic(Anthropic)提起诉讼。
去年8月的诉讼文件指控,“Anthropic(Anthropic)下载了原告作品的已知盗版版本。”完整诉状还写道:“Anthropic(Anthropic)商业模式的核心组成部分——及其旗舰产品‘Claude’系列大型语言模型——是基于大规模盗取版权作品”,该公司“试图通过掠夺每部作品背后的人类表达与创造力来牟利”。
法律程序披露的多份文件揭示了Anthropic(Anthropic)内部员工对使用盗版书籍训练Claude的担忧。尽管该公司后来转向批量购买实体书,并费力地逐页数字化供人工智能模型吸收,但法官裁定,早期的盗版行为仍需从法律上解决。因此,旧金山联邦法院法官威廉·阿尔苏普(William Alsup)在周一作出的裁决意味着,Claude可以继续基于作者作品进行训练——但Anthropic(Anthropic)必须在12月返回法庭,就整个“大规模盗取版权作品”事件接受审判。
在本周的裁决中,法官阿尔苏普写道:“Anthropic(Anthropic)无权使用盗版副本作为其核心库。”我不是法律专业人士,但这一点我完全同意。然而,阿尔苏普也将人工智能模型在版权材料训练下的输出描述为“本质上是变革性的”,因此不违反法律的合理使用原则。
他补充道:“就像任何渴望成为作家的读者一样,Anthropic(Anthropic)的大型语言模型训练于这些作品,并非为了抢先复制或取代它们——而是为了转向创造不同的事物。”
再次声明,我不是律师,也绝对不提供法律建议,但我无法接受这个论点。我认为,真正变革性的创造性合成至少需要对所吸收材料有一定理解。像Claude这样的大型语言模型并不像人类那样“理解”文本,而是进行极其复杂的词语关联游戏。
换句话说,Claude不是在创造,它只是在尝试将训练数据中认为该组合的词语串联起来,以欺骗人类相信其输出是连贯的内容。但我懂什么呢?我只是一名作家——而大型语言模型现在可能受益于这起旧金山案件设定的法律先例。