人工智能公司 OpenAI 和 Anthropic 已经同意允许美国政府在这些公司发布重大新的人工智能模型之前访问这些模型,以帮助提高它们的安全性。
两家公司已经与该研究所签署了谅解备忘录,承诺在模型公开发布之前和之后提供访问权限
美国人工智能安全研究所(US AI Safety Institute)周四宣布,这。美国政府表示,这一举措将有助于他们共同评估安全风险并缓解潜在问题。该机构表示,将与英国的对应机构合作,就安全改进提供反馈。
OpenAI 首席战略官 Jason Kwon 对合作表示支持:
“我们非常支持美国 AI 安全研究所的使命,并期待一起合作,制定 AI 模型的安全最佳实践和标准。我们相信,该研究所在确保美国在负责任开发 AI 方面的领导地位上扮演着关键角色。我们期望通过与研究所的合作,能为全球提供一个可以借鉴的框架。”
Anthropic 公司也表示,建立有效测试AI 模型的能力非常重要。该公司的联合创始人兼政策负责人 Jack Clark 说:
“确保 AI 安全可靠对于让这项技术带来积极影响是至关重要的。通过这样的测试和合作,可以更好地发现和减少 AI 带来的风险,推动负责任的 AI 发展。我们为能够参与这项重要工作感到自豪,并希望为 AI 的安全性和可信度设立新的标准。”
在联邦和州立法机构正在考虑如何对这项技术设置哪些限制而不扼杀创新的同时,共享人工智能模型访问权是一项重要举措。IT之家注意到,周三,加利福尼亚州立法者通过了《前沿人工智能模型安全创新法案》(SB 1047),要求加利福尼亚州的人工智能公司在训练先进的基础模型之前采取特定的安全措施。这引起了包括 OpenAI 和 Anthropic 在内的人工智能公司的反对,他们警告称这可能会伤害较小的开源开发人员,尽管该法案已经进行了修改,并且仍在等待加利福尼亚州州长加文 纽瑟姆的签署。
与此同时,美国白宫一直在努力从主要公司那里获得关于人工智能安全措施的自愿承诺。几家领先的 AI 公司已经做出非约束性承诺,投资于网络安全和歧视研究,并致力于对人工智能生成的内容进行水印标记。
美国人工智能安全研究所所长伊丽莎白 凯利在一份声明中表示,这些新的协议只是“开始,但它们是我们努力帮助负责任地管理人工智能未来的一个重要里程碑”。