随着人工智能(AI)技术的快速发展,其训练数据的获取和使用变得日益重要,但也出现了滥用现象。为了抵御这种滥用,一款名为「Nightshade」的新工具应运而生,为创作者提供了一种保护他们创意作品不被无授权用于 AI 模型训练的方法。
Nightshade工具使得用户能够将其附加到他们的创意作品上,从而在使用该作品进行训练时「毒化」AI 模型的数据。通过对数字艺术作品的像素进行不可见的修改,Nightshade 能够在作品被 AI 模型训练时利用安全漏洞对模型造成混淆。例如,它可以让模型无法识别汽车图像,反而识别为牛的图像。最终,这种毒化数据可以破坏诸如 DALL-E、Stable Diffusion 和 Midjourney 等 AI 艺术平台的未来模型,剥夺其生成图像的能力。
《麻省理工学院科技评论》报告称,芝加哥大学教授兼 Nightshade 的创建者之一 Ben Zhao 希望通过这款工具,改变目前 AI 公司借助侵权数据训练模型的现状。Nightshade 的研究论文指出,文本至图像的 AI 模型很容易受到这种攻击的影响。
创作者可通过上传他们的作品到 Nightshade 创建者开发的另一款工具 Glaze 中,保护其艺术风格不被模仿。例如,Glaze 可以将通常的现实主义绘图转变为立体主义风格。未来,Nightshade 将被集成到 Glaze 中,让用户选择是否使用「毒丸」,或满足于模型无法模仿他们的艺术风格。
Nightshade 的创建者在论文中提议,应将 Nightshade 及类似工具作为保护创作者免受不遵守退出规则的网络爬虫侵害的「最后防线」。
目前,围绕 AI 生成内容和训练数据的版权问题在缺乏相关法规的情况下仍然是一个灰色地带。许多与版权侵权战斗的诉讼仍在法庭上进行。同时,防止网络爬虫未经许可获取数据的方法也受到了限制。Adobe 公司计划使用标记来标识是否为 AI 生成的内容,同时显示图像的所有者。
最初针对生成性 AI 平台的一些诉讼集中在版权材料被无授权用于模型训练上,特别是在文本至图像平台方面。今年 1 月,三名艺术家分别起诉了 Stable Diffusion、Midjourney 和艺术网站 DeviantArt,声称其模型未经许可使用了他们的艺术作品。Getty Images 也在构建自己的基于许可图像训练的 AI 图像生成器之前,对 Stable Diffusion 提起了诉讼。
谷歌和微软表示,如果客户在使用他们的生成性 AI 产品时因侵犯版权而被起诉,他们愿意承担法律责任。然而,大多数这些产品都是基于文本的。