药物是医学的基石,但有时医生在开具处方时会犯错,患者也可能没有正确地服用药物。牛津大学开发的新型 AI 工具 DrugGPT 旨在解决这两个问题。DrugGPT 为临床医生在开具药物处方时提供了一个安全网,同时也为他们提供了有助于患者更好理解药物用途和服用方法的信息。
医生和其他开具药物处方的医疗专业人员可以通过将患者的病情输入聊天机器人中,获得即时的第二意见。原型版本将回应推荐药物清单,并标注可能的不良反应和药物相互作用。“其中一个很棒的地方是,它会解释为什么会这样,” 该项目负责人大卫・克利夫顿教授说道。他指出,DrugGPT 会展示指导信息、研究成果、流程图和参考文献,并解释为什么推荐这种特定的药物。
一些医生已经使用主流生成 AI 聊天机器人,如 ChatGPT 和谷歌的 Gemini,在检查诊断和书写医疗记录或信件时使用。国际医学协会此前曾建议医生不要使用这些工具,部分原因是聊天机器人可能提供错误信息,或者技术人员所称的幻觉。然而,克利夫顿和他的同事在关于 DrugGPT 有效性的预印本中表示,它在美国医疗执照考试中表现出与人类专家相竞争的水平。
“想象一下,如果你是一名全科医生:你试图掌握每年更新的数不清的医学指南,这很困难,” 克利夫顿说道。他强调,重要的是不要剥夺人类的作用。其他研究发现,英国每年大约有2.37亿次药物错误,造成约9800万英镑的损失和超过1700人死亡。
一项发表在《英国医学杂志》上的研究称,只有约2% 的错误可能导致严重伤害,而全科医生的错误率最低,照护机构的处方者错误率最高。患者也会在用药上出错,“不依从” 导致了英格兰国民保健服务约3亿英镑的浪费。目前,一些普通诊所已经使用了像 ScriptSwitch 这样的技术,检查药物选择并让开药人员选择更便宜的选项。
牛津大学医院 NHS 基金会信托的妇产科医生卢西・麦基洛普博士对 AI 医疗团队提供建议。麦基洛普博士表示,DrugGPT 的潜在优势在于为忙碌的医生提供更多关于他们开具药物处方的信息。“如果您与患者讨论此事,他们更有可能理解并遵守用药,因此药物整体上更可能发挥作用并完成其应有的作用,” 她说道。
皇家全科医师学院副主席迈克尔・穆赫兰博士表示,在绝大多数情况下,处方是正确的。但 “医生也只是人类,错误是可能发生的,尤其是在医生工作受到巨大压力和人力资源压力的情况下,就像目前的全科医生和我们的团队一样。对于同时服用大量药物的患者,错误可能会更多,因为药物可能以多种不同方式相互作用。”穆赫兰博士表示,他们始终乐于引入更复杂的安全措施,以支持我们减少人为错误 —— 我们只需确保任何新工具和系统都是健壮的,并在更广泛推广之前进行试点测试,以避免任何意外和意想不到的后果。
最终,为确保提供安全的患者护理,最有效和持久的解决方案是确保全科医生有足够的资金和工作人员以及足够数量的全科医生和其他医疗专业人员以安全水平工作。