欧洲隐私监管机构再次面临严峻考验——人工智能聊天机器人ChatGPT因生成虚假信息的"幻觉"问题引发新争议。挪威维权人士阿尔维·哈尔马·霍尔门(Arve Hjalmar Holmen)的遭遇,可能成为推动监管行动的关键案例。
隐私组织"不关你事"(Noyb)最新披露,霍尔门使用ChatGPT查询个人信息时,系统竟虚构其犯有杀害两名子女并试图谋杀第三名孩子的重罪。尽管当事人确实育有三个孩子且家乡信息准确,但AI在真实信息基础上编造的犯罪情节引发公众担忧。
这已不是ChatGPT首次因个人信息错误被投诉。与此前常见的生日或履历差错不同,本次事件暴露更严重问题:根据欧盟《通用数据保护条例》(GDPR),数据控制方必须保证个人数据准确性,而OpenAI目前仅提供屏蔽错误信息的解决方案。Noyb律师约阿基姆·索德伯格(Joakim Söderberg)指出:"GDPR明确规定用户有权要求纠正错误信息,仅用免责声明无法履行法律义务。"
若被认定违规,OpenAI可能面临最高达全球年营业额4%的罚款。值得注意的是,意大利监管机构去年曾迫使ChatGPT暂停服务,最终以OpenAI改进信息披露并缴纳1500万欧元罚款收场。但欧洲各国对生成式AI的监管仍显谨慎:波兰去年9月受理的同类投诉至今未有结果,爱尔兰数据保护委员会(DPC)对Noyb四月投诉的调查也仍在进行。
技术层面,Noyb发现自ChatGPT升级在线搜索功能后,关于霍尔门的虚假信息已消失。但维权人士担忧错误数据可能仍存储在AI模型内部。"科技公司不能通过隐藏错误信息逃避责任,"Noyb律师克莱安西·萨德利(Kleanthi Sardeli)强调,"若'幻觉'问题不解决,个人名誉将长期处于风险中。"
此次挪威投诉的管辖争议凸显监管复杂性。Noyb特意针对OpenAI美国总部发起诉讼,但奥地利四月投诉已被移交爱尔兰DPC,因其欧洲分支机构被指定为服务提供商。截至目前,爱尔兰DPC未公布调查时间表,OpenAI回应称"正持续研究提升模型准确性的技术方案"。
从澳大利亚少校被诬陷受贿,到德国记者被误指虐童,ChatGPT的"虚构症候群"已引发多国警觉。随着生成式AI深度融入社会生活,如何在技术创新与个人权利间找到平衡点,正成为全球监管机构面临的共同挑战。