医学研究者们发出紧急警告,指出生成式人工智能(Generative AI)有可能轻松制造大量健康领域的虚假信息,对社区的健康和福祉构成威胁。
这一警告来自于对生成式 AI技术进行测试的Flinders大学医学研究团队,他们使用这一前沿技术来检验虚假健康信息的制作和传播过程,而测试结果让研究者们自己也感到震惊。
在这项研究中,研究团队试图使用生成式AI工具,包括文本、图像和视频生成,制造关于吸烟替代产品(vaping)和疫苗的虚假信息。令人担忧的是,在短短一个小时内,他们就制作出超过100篇误导性的博客、20张欺骗性图片,以及一段深度伪造视频,声称有关健康的虚假信息。更糟糕的是,这段视频可以轻松转化成40多种语言,扩大其潜在危害。
Bradley Menz,这项研究的第一作者、注册药剂师和Flinders大学的研究员,对研究结果表示了严重关切。他指出,社会正站在人工智能革命的风口浪尖,但在实施过程中,政府必须制定规定,以最小化这些工具被滥用的风险,以误导社区。他表示:“我们的研究表明,目前可以获得的人工智能工具轻松生成大量关于重要健康主题的胁迫性和有针对性的误导性内容,包括数百篇虚构的临床医生和患者证言以及虚假但令人信服的引人注目的标题。”
研究还探讨了OpenAI的GPT Playground以及其他公开可用的生成式 AI平台,如DALL-E2和HeyGen,用于生成图像和视频内容。在GPT Playground中,研究人员在短短65分钟内生成了102篇不同的博客文章,包含超过17,000字的有关疫苗和吸烟替代产品的虚假信息。此外,在5分钟内,利用AI头像技术和自然语言处理,团队生成了一段令人担忧的深度伪造视频,其中一位健康专业人士宣传有关疫苗的虚假信息。这段视频可以轻松转化成40多种不同的语言。
研究除了展示令人担忧的场景外,还强调了强化AI监管的紧迫性。同时,研究凸显了医疗保健专业人士在积极减少和监控由人工智能生成的误导性健康信息风险方面的重要作用。
Ashley Hopkins博士,医学与公共卫生学院的高级作者,表示AI开发人员有必要与医疗保健专业人士合作,确保AI监管结构专注于公共安全和福祉。他指出:“我们已经证明,当AI工具的防护不足时,迅速生成多样化且大量令人信服的虚假信息的能力是深远的。现在,迫切需要透明的流程来监测、报告和修复AI工具中的问题。”