据 CNBC 报道,一位微软工程师向美国联邦贸易委员会 (FTC) 举报该公司的人工智能图片生成器 Copilot Designer 存在安全隐患。
这位名叫 Shane Jones 的工程师在微软工作了六年,他致信 FTC 称,尽管他反复警告 Copilot Designer 可能会生成有害图像,但微软却“拒绝”下架该工具。
在测试 Copilot Designer 的安全问题和缺陷时,Jones 发现该工具会生成“与堕胎权术语相关的恶魔和怪物、手持突击步枪的青少年、暴力场景中性化的女性图像以及未成年人饮酒和吸毒”等内容。
据报道,自去年 12 月以来,Jones 一直试图警告微软有关 Copilot Designer 使用的模型 DALLE-3 的问题。他在领英上发布了一封公开信,随后微软的法律团队联系他要求删除帖子,他照做了。
“过去三个月里,我反复敦促微软将 Copilot Designer 从公共使用中移除,直到更好的保障措施到位,”Jones 称,“然而,他们再次未能实施这些改变,并继续将该产品推销给‘任何人、任何地方、任何设备’。”
微软发言人 Frank Shaw 在给 The Verge 的一份声明中表示,公司“致力于按照微软的政策解决员工提出的任何和所有顾虑”。Shaw 还表示,微软为绕过安全措施或可能对我们的服务或合作伙伴产生潜在影响的问题建立了产品内用户反馈工具和强大的内部报告渠道,以便正确调查、优先处理和纠正任何问题,并建议 Jones 利用这些渠道,以便微软能够“适当验证和测试他的担忧”。
Shaw 还表示,微软“已与产品领导层和我们的负责任人工智能办公室举行会议,以审查这些报告。”
今年 1 月,在 Copilot Designer 生成并迅速传播的 Swift 的露骨图片事件后,Jones 就向美国参议员小组写信表达了他的担忧。微软首席执行官萨特亚・纳德拉 (Satya Nadella) 称这些图片“令人震惊和可怕”,并表示公司将努力添加更多安全保障措施。IT之家注意到,上个月,谷歌在其用户发现其 AI 图片生成器创建种族多元化的纳粹和其他历史不准确图像后暂时禁用了该工具。