麻省理工学院的研究人员开发了一种名为PhotoGuard的技术,用于对抗未经授权的图像操纵,保护图像的真实性。
PhotoGuard 通过引入微小的、不可见的像素变化来破坏人工智能模型对图像进行操纵的能力。
它使用了两种不同的攻击方法:编码器攻击和扩散攻击。编码器攻击对模型中图像的潜在表示进行微调,使模型将图像视为随机实体,从而阻止对图像的操纵。
扩散攻击目标是将生成的图像与预选目标对齐,从而保护原始图像免受未经授权的编辑。这种技术可以用于防止图像被恶意编辑,例如用于欺骗、勒索或虚假犯罪。
下面我们来看看PhotoGuard 的真实示例,图片中有两个面孔,可以被P到任何人身上。比如创建提示“两个男人参加婚礼”。提交后,系统将相应地调整图像,创建两个参加婚礼的男子的合理描述。
现在,在没有对保护图像进行编辑情况下,直接上传的图片就可以很毫无痕迹的用ai功能被P到另外一张图片中,如下图:
而如果在上传之前向图像添加扰动可以使其免受修改,在这种情况下,与原始的未免疫图像相比,最终输出将缺乏真实感。
然而,PhotoGuard 并不是万能的,它可能会被一些逆向工程方法破解,但通过与图像编辑模型的合作,可以提供更强大的防御。
研究人员建议政策制定者制定法规,要求公司保护用户数据免受操纵,并呼吁人工智能模型的开发者设计 API,为用户的图像添加额外的保护层。
这项技术有望在防止图像滥用方面发挥积极的作用,但还需要进一步的研究和合作来实现更强大的保护措施。