在5月的最后期限之前,欧盟需要敲定一份针对通用人工智能(GPAI)模型提供商的指导方针,以确保其符合《欧盟人工智能法》的相关条款。本周二,第三版行为准则草案正式公布。该准则自去年开始制定,而此次草案预计将为最终版本。
为了提高行为准则的可及性,相关网站也已上线。关于最新草案的书面反馈需在2025年3月30日前提交。
欧盟的风险基础人工智能规则包括一套仅适用于最强大的人工智能模型制造商的义务,涵盖透明度、版权和风险缓解等领域。该准则旨在帮助通用人工智能模型制造商了解如何履行法律义务,避免因不合规而面临制裁的风险。违反通用人工智能要求的《人工智能法》罚款金额可能高达全球年收入的3%。
简化结构,优化内容
与之前的版本相比,最新修订的行为准则被宣传为具有“更精简的结构、更精细的承诺和措施”,这一改进是基于12月发布的第二版草案所收到的反馈。
进一步的反馈、工作组讨论和研讨会将推动第三版草案转化为最终指导意见。专家们表示,他们希望在最终通过的行为准则版本中实现更大的“清晰度和连贯性”。
草案分为几个部分,涵盖通用人工智能的承诺,以及关于透明度和版权措施的详细指导。还有一节涉及安全和安全义务,这些义务适用于最具影响力的模型(即所谓的具有系统性风险的通用人工智能模型,简称GPAISR)。
在透明度方面,指导方针包括一个通用人工智能模型可能需要填写的模型文档表格示例,以确保其技术的下游使用者能够获取关键信息,从而帮助他们自身合规。
版权与安全:争议与挑战
在其他方面,版权部分可能仍然是大型人工智能公司最易引发争议的领域。当前草案中充斥着诸如“尽最大努力”“合理措施”和“适当措施”等措辞,涉及履行承诺时的合规性,例如在抓取网络数据以用于模型训练时尊重版权要求,或减少模型生成侵权输出的风险。
此类缓和性语言表明,数据挖掘型人工智能巨头可能觉得自己有足够的回旋余地,继续抓取受保护的信息来训练其模型,然后事后道歉——但最终草案是否会加强措辞还有待观察。
在行为准则的早期版本中,曾提到通用人工智能应提供一个单一的联系点和投诉处理机制,以便权利持有人能够“直接且迅速地”表达不满,但这一表述似乎已从当前版本中删除。现在仅有一句:“签署方将指定一个与受影响权利持有人沟通的联系点,并提供易于获取的相关信息。”
当前文本还暗示,如果权利持有人提出的版权投诉“明显无根据或过度,特别是由于其重复性”,通用人工智能可能会拒绝采取行动。这表明,创作者试图利用人工智能工具检测版权问题并自动对大型人工智能公司提起投诉,可能会导致他们的投诉……被简单地忽视。
在安全和安全方面,欧盟《人工智能法》对系统性风险的评估和缓解要求本就仅适用于最强大的模型(那些使用超过10^25浮点运算的总计算能力进行训练的模型),但最新草案在回应反馈后,进一步缩小了一些先前推荐的措施范围。
美国施压与欧盟的应对
欧盟关于最新草案的新闻稿中未提及的是,美国政府对欧洲立法的猛烈抨击,尤其是对欧盟人工智能规则的批评。
上个月在巴黎人工智能行动峰会上,美国副总统JD·万斯(JD Vance)驳斥了为确保人工智能安全应用而进行监管的必要性——特朗普政府将更多地关注“人工智能机遇”。他还警告欧洲,过度监管可能会扼杀“下金蛋的鹅”。
自那以后,欧盟已取消了一项人工智能安全倡议——将人工智能责任指令搁置。欧盟立法者还预告了一项即将出台的“一揽子”简化改革措施,旨在减少企业的繁文缛节和官僚主义,重点关注可持续性报告等领域。但随着《人工智能法》仍在实施过程中,显然存在压力,要求削弱相关要求。
本月早些时候,在巴塞罗那的世界移动通信大会上,法国通用人工智能模型制造商Mistral(在2023年立法谈判期间,该公司是欧盟《人工智能法》的强烈反对者之一)的创始人亚瑟·门什(Arthur Mensh)声称,该公司在寻找符合部分规则的技术解决方案方面遇到了困难。他还表示,公司正在“与监管机构合作,以确保问题得到解决”。
尽管这份通用人工智能行为准则是由独立专家起草的,但欧盟委员会通过负责监督法律执行及其他相关活动的人工智能办公室,也在同步制定一些“澄清性”指导意见,这些指导意见将塑造法律的适用方式,包括对通用人工智能及其责任的定义。
未来展望:更多指导与监管博弈
因此,需关注人工智能办公室“适时”发布的进一步指导意见,因为委员会表示,这些指导意见将“澄清……规则的范围”,这或许为面临压力的立法者提供了一条回应美国游说放松人工智能监管的途径。