Google 科学家进行一项实验研究,他们使用 OpenAI 的 GPT-4聊天机器人来攻破其他机器学习模型的安全防护措施。这项实验证明了聊天机器人作为研究助手的价值。
具体来说,谷歌 Deep Mind 的研究科学家 Nicholas Carlini在一篇题为“AI-Guardian 的 LLM 辅助开发”的论文中,探讨了如何通过指导 GPT-4设计攻击方法并撰写攻击原理的文本,以欺骗 AI-Guardian 的防御机制。AI-Guardian 是一种防御对模型的攻击的系统,旨在检测可能被篡改的图像以欺骗分类器。
GPT-4会发出用于调整图像的脚本(和解释)来欺骗分类器——例如,让它认为某人拿着枪的照片是某人拿着无害苹果的照片——而不会引发 AI-Guardian 的怀疑。AI-Guardian 旨在检测图像何时可能被操纵以欺骗分类器,而 GPT-4的任务是逃避该检测。
通过 GPT-4的帮助,攻击者能够成功地破解 AI-Guardian 的防御,使其从98% 的稳健性降低到仅8%。然而,AI-Guardian 的开发者指出,这种攻击方法可能在改进的版本中失效。
据了解,GPT-4作为研究助手的价值在于它能够快速生成代码,并且不会分心或疲劳,始终可用于完成指定的任务。然而,依赖 GPT-4并不完全解除人类合作者的责任,因为它仍然需要人类提供正确的提示并修复生成的代码中的错误。
虽然 GPT-4还存在一些限制,但随着大型语言模型的改进,它们将为计算机科学家提供更多时间来开展有趣的研究问题。