日前,Politico报道称,医生们已经开始使用未受监管和少经测试的AI工具来辅助诊断患者,这引起了监管机构的担忧。这并非遥远的未来的假设性讨论,而是一个正在发生的现象,可能仅一起医疗事故诉讼之遥,就有可能演变成一场重大的医疗和监管丑闻。
"推车已经远远超过了马,我们如何在不倾覆到峡谷的情况下,将其拉回来呢?"加利福尼亚大学公共卫生研究员圣地亚哥约翰·艾尔斯在接受《政治学》采访时如此问道。
“车远远领先于马,我们如何才能控制住它,而不至于翻过峡谷呢?”加州大学圣地亚哥分校公共卫生研究员约翰·艾尔斯向Politico询问。
显而易见的答案是,这项技术需要监管,这一概念得到了从白宫到OpenAI 的所有利益相关者的名义认可。
当然,问题在于,实际上这样做说起来容易做起来难。正如Politico指出的那样,一个关键问题是大多数医疗产品(例如药品、手术设备或其他医疗设备)都可以一次性获得批准,并且通常可以相信可以无限期地以同样的方式发挥作用。
人工智能模型则不然,随着其创建者对其进行调整并添加更多数据,人工智能模型会不断变化,这意味着有一天能够给出完美诊断的人工智能在常规更改后可能会给出糟糕的诊断。请记住,机器学习系统的一个核心现实是,即使是它们的创建者也很难准确解释它们是如何工作的。
Politico指出,像 FDA 这样的政府监管机构已经分散到了崩溃的边缘。要求他们创建和维护工作流程来持续测试医疗人工智能系统将需要政治上不可能的资金。因此,如果这些人工智能系统已经进入常规医疗实践,那么谁来监管它们呢?
据媒体报道,一个想法是,医学院和学术健康中心可以创建实验室,不断审核人工智能医疗保健工具的性能。
但即使是这个想法也需要一些挥手。所有这些资源从哪里来?这些大多是城市和富裕机构的患者群体之间的互动是否能够准确反映人工智能在不同且更具挑战性的社区中的工作方式?
从长远来看,人工智能有可能为医疗系统带来难以置信的福音。科技领导者当然喜欢利用这种可能性。例如,OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman)公开表示,未来的人工智能可以为买不起医生的人提供高质量的医疗建议。
然而,目前人工智能对医疗系统的混乱尝试突显了该技术的某些现实将是多么令人不舒服——即使是在生死存亡的环境中。