虽然人工智能热潮短期内不会消退,但企业对这项技术的应用正变得比以往更加激进。随着技术普及,确保其合乎伦理的使用正变得愈发困难。近日曝光的某高校研究人员在Reddit(红迪)平台进行的AI实验不仅未经授权,更涉及伦理问题甚至可能引发法律后果,这一事件凸显了技术应用过程中保障透明度与用户隐私的紧迫性。
苏黎世大学(University of Zurich)研究人员在未经用户知情同意的情况下,于Reddit平台秘密开展AI实验的行为引发强烈争议。该团队利用先进语言模型创建具有不同人格特征的AI机器人,在“Change My View”(改变我的观点)子论坛伪装成创伤心理咨询师甚至性骚扰幸存者参与讨论,旨在评估AI如何影响他人观点。这些AI机器人会分析用户历史发言数据来生成定制化回复。由于全程未告知平台或用户,该实验既严重违反伦理准则,也引发对心理操纵的担忧。
校方在实验完成后才向子论坛版主坦白,承认团队违反社区禁止AI生成内容的规则,却辩称“鉴于课题的重大社会意义,即便违规也有必要开展”。这种态度招致更强烈的批评。研究人员为AI机器人设定了极具煽动性的虚拟身份:除自称专业心理咨询师外,还虚构医院虐待病患等情节。这不仅因虚构敏感职业身份存在伦理风险,更可能对误以为进行真实人际交流的用户造成心理伤害。
平台管理方严厉谴责该实验是“严重的伦理违规”,并对比指出OpenAI(开放人工智能研究中心)完全可以在不涉及欺骗手段的情况下开展大语言模型影响力研究。事实上,研究人员越过了道德红线——让用户在不知情状态下成为实验对象,使其产生被针对感,这种行为本身就构成侵权。该事件再次敲响警钟:在AI技术狂飙突进的时代,商业价值与社会责任的平衡不容忽视。