影史最佳动作三部曲之一,8月登陆流媒体
阅读全文

锤刻创思寰宇网
ChatGPT用户若想将人工智能应用作为心理治疗或情感支持工具,或许需要三思而行。OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)指出,当用户与AI进行敏感对话时,整个行业尚未建立保护隐私的有效机制——毕竟AI可不会像人类医生那样遵守医患保密协议。
这番表态出自阿尔特曼近期参加的Theo Von播客节目《This Past Weekend w/ Theo Von》。针对AI与现行法律体系适配性的提问,他坦言缺乏法律政策框架的现状,导致用户与AI的对话无法享有法律层面的隐私保护。
“用户会向ChatGPT倾诉人生中最私密的事,”阿尔特曼说,“尤其是年轻群体,他们将其视为心理医生、人生导师,咨询诸如‘我该怎么处理这段感情’之类的问题。而目前,如果这些对话发生在人类医生、律师或治疗师那里,都将受到法律特权保护。但AI对话的保密性问题,我们至今未能解决。”
这位CEO警告,在诉讼场景下可能引发隐私危机——按照现行法律,OpenAI有义务提交用户对话记录。“这非常不合理。我认为AI对话应该获得与心理治疗同等的隐私权概念,要知道一年前根本没人需要思考这个问题。”他说。
企业已意识到隐私缺陷将阻碍用户增长。除了训练期需要海量网络数据,AI还被要求在法律程序中提供用户聊天记录。目前OpenAI正就法院命令提起上诉,该命令要求其保存全球数亿ChatGPT普通用户(企业版客户除外)的聊天记录,公司官网声明称此举“严重越权”。
若法院能推翻企业对隐私数据的自主处置权,或将引发更多司法调查或执法需求。当下科技公司频繁接到用户数据传票以协助刑事案件,但近年随着法律收紧(如女性堕胎权限制),数字隐私引发新忧虑——罗诉韦德案被推翻后,许多女性就转投加密经期追踪应用或Apple Health。
当播客主持人Theo Von自述因隐私顾虑较少使用ChatGPT时,阿尔特曼回应道:“在频繁使用前要求明确的隐私法律保障,这完全合乎逻辑。”