谷歌 DeepMind 最近的研究示了当前我们对文本到图像 AI 模型性能评估的隐藏局限性。在其发布在预印本服务器 ariv 上的研究中,他们引入了一种全新的方法称为 “Gecko”,承诺提供一个更全和可靠的基准,以评估这一蓬勃发展的技术。
研究团队在其题为 “用 Gecko 审视文本到图像评估:对度量、提示和人类评分” 的论文中警告称:“虽然文到图像生成模型已经变得无处不在,但它们并不一定生成与给定提示相一致的图。” 他们指出,目前主要用于评估 DALL-E、Midjourney 和 Stable Diffusion 等模型能力数据集和自动度量并不能全面反映实际情况。
小规模的人类评估提供了有限的解,而自动度量可能会忽略重要细微之处,甚至与人类评委产生分歧。 为了揭示这些问题,研究人员开发了 “Gecko”—— 一个新的基准套件,它为文本到图模型提供了更高难度的测试。Gecko基准通过2000个文本提示对模型进行全面考核,探究各种技能和复杂程度。它将这些提示分成具体的子技能,超越模糊的类,以准确找出限制模型的确切弱点。
研究人员还收集了对数个领先模型生成的图像进行的超过10万份人类评分。这一基准可以揭示模型性能差距是源自模型真正的局限性、模糊的提示,还是评估方法的不一致。
“Gecko” 基准还采用了一个基于问的增强自动评估指标,与人类判断更为相关。当用于比较新基准下的最先进模型时,这一组合揭示了先前未被发现的模型优势和劣势。 研究人员希望他的工作能够证明使用多样的基准和评估方法来真正了解文本到图像 AI 在实际部署前能做什么,不能做什么的重要性。他们计划免费公开 “Gecko” 代码和数据,推动进一步的进展。 因此,尽管那些看似令人印象深刻的作品可能乍一看令人印象深刻,但我们仍然需要严格的测试来区分真假。Gecko为我们展示了如何做到这一。