美国、英国及其他十几个个国家于周日联合发布了一份 20 页的文件,标志着首个详细的国际协议在如何保护人工智能(AI)免受恶意行为者滥用方面达成一致。美国一高级官员描述此协议为确保公司创建的 AI 系统从设计开始就是安全的重要步骤。
这份非约束性协议主要包含一些普遍建议,如监控 AI 系统以防滥用、保护数据免受篡改,以及审查软件供应商。尽管如此,美国网络安全和基础设施安全局局长 Jen Easterly 强调,如此多国家对 AI 系统安全优先的观念表示支持十分重要。
Easterly 在接受路透社采访时表示:「这是我们首次看到对这些能力的肯定不仅仅是关于酷炫功能,以及我们如何快速推向市场或竞争以降低成本,而是一个认同,认为设计阶段最重要的事情是安全。」
此协议是全球政府试图影响 AI 发展的一系列举措中的最新一项。这些举措虽大多没有实际执行力,但 AI 在工业和社会中的影响越来越大。
除了美国和英国,签署新指导原则的国家还包括德国、意大利、捷克共和国、爱沙尼亚、波兰、澳大利亚、智利、以色列、尼日利亚和新加坡等。
该框架处理了如何防止 AI 技术被黑客劫持的问题,并包括建议,如仅在适当的安全测试后发布模型。
该协议并未处理围绕 AI 适当使用的复杂问题,以及这些模型所依赖的数据是如何收集的。
AI 的兴起引发了一系列担忧,包括它可能被用来破坏民主进程、加剧欺诈或导致大规模失业等危害。
在 AI 监管方面,欧洲领先于美国,欧洲立法者正在起草 AI 规则。法国、德国和意大利最近也达成了关于如何监管人工智能的协议,支持对所谓的 AI 基础模型实施「通过行为准则的强制性自我监管」。
拜登政府一直在向立法者施压以监管 AI,但在通过有效监管方面,两极分化的美国国会进展甚微。
白宫在 10 月发布了一项新的行政命令,旨在降低 AI 对消费者、工人和少数群体的风险,同时加强国家安全。