随着人工智能技术的快速普及,各领域都在寻求应用该技术以提高效率、节省时间。AI助手已广泛应用于流程优化中。美国食品药品监督管理局(FDA)不久前推出生成式AI工具Elsa,意图通过这项前瞻性举措优化药品和医疗器械审批流程,但这个平台的实际表现似乎未达预期——多名现任及离职员工指控该工具频繁出现幻觉现象,屡屡歪曲真实研究数据。

Cover Image

FDAElsa AI因虚构研究而遭受质疑时,真正的问题究竟在于技术缺陷,还是人类监管缺位?

与全球发展趋势同步,医疗健康和监管科技领域正积极采用生成式AI来简化流程。FDA推出的Elsa旨在通过减少官僚主义拖延、降低行政工作量来提升审批效率,但这项本应代表技术飞跃的工具,却暴露出对技术的过度依赖和人为疏忽等深层问题。

尽管从理论上说,这项能加速救命疗法审核的技术颇具革命性,但FDA内部人员揭露了触目惊心的真相。据CNN报道,多名现任及前任员工对这款生成式AI工具提出担忧:它不仅会产生不准确的摘要,甚至会编造完整的临床研究——这些被引用的论文根本不存在。至少三名员工证实了该工具扭曲真实研究结果的危险倾向,这对于宣称“无需监督即可节省时间”的辅助工具而言尤为令人不安。

Elsa的问题被上报时,FDA管理层并未表现出足够的重视。他们强调使用该工具纯属自愿,员工可自行选择是否参加培训。这意味着缺乏确保工具安全规范使用的系统保障机制。

AI幻觉并非罕见现象,系统更新或改动都可能引发此类故障。但当工具应用于生死攸关的领域时,必须建立严格的安全防护措施。问题的核心不在于AI工具存在缺陷,而在于缺乏充分的人类监督——尤其在细微差错就可能危及民众健康的领域。


文章标签: #人工智能 #医疗监管 #数据造假 #公共安全 #技术风险

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。