如今,用户在日常工作中越来越依赖人工智能工具的协助,有些人甚至通过该平台寻求医疗、个人甚至职业建议。这类工具已逐渐演变成个人助手,被视为解决日常问题的首选方案,但这也导致人们过度依赖聊天机器人。虽然表面上向平台寻求心理疏导似乎无害,但与专业治疗中受法律保护的保密性不同,用户无法确保分享的信息不会被泄露。OpenAI首席执行官山姆·奥尔特曼(Sam Altman)发出警告,提醒人们不要过度依赖人工智能助手处理高度私密信息,这一表态引发了广泛关注。

Cover Image

山姆·奥尔特曼明确指出,ChatGPT无法提供心理治疗师与客户之间的保密协议。随着人工智能工具的情感理解能力不断提升,许多人开始依赖聊天机器人进行心理疏导或情感支持。然而与传统治疗严格遵循医患保密原则不同,人工智能目前缺乏保护敏感对话的法律框架。奥尔特曼在参加TechCrunch节目《This Past Weekend w/ Theon Van》时也强调了这一观点。

奥尔特曼在访谈中承认,虽然当前人工智能工具能够进行更具支持性的对话并营造隐私感,但用户不应将其用于心理治疗或情感支持。由于缺乏专业心理健康护理的保障机制,在相关法规完善之前,人工智能绝不能替代专业治疗。他在表达担忧时特别提到:

“用户会向ChatGPT倾诉生活中最私密的事情,尤其是年轻人——他们将其视为心理治疗师和人生导师,咨询诸如‘我该怎么办’之类的情感问题。而现阶段,如果你向医生、律师或心理医师咨询这些问题,法律会保障谈话特权。但我们尚未为ChatGPT的对话建立相应的保密机制。”

鉴于人工智能工具目前不受法律保密条款约束,奥尔特曼警告称,一旦涉及司法程序可能造成严重后果。例如当某人卷入法律纠纷时,若法院要求OpenAI提供对话记录,公司将不得不交出这些极度私密的信息。他进一步指出,人工智能对话本应享有同等隐私权,但由于技术发展速度远超法律建设,目前尚未建立相应的保护措施。


文章标签: #人工智能 #隐私风险 #心理治疗 #法律漏洞 #ChatGPT

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。