两个月前,音乐发行商,包括环球音乐、康科德和ABKCO在一场侵权法律纠纷中向Anthropic提出了初步禁令。这家得到亚马逊和谷歌支持的生成式AI公司最近正式回应了这一请求。
这些发行商声称,在AI训练过程中,Anthropic在未经允许的情况下摄取了他们的作品,此外,Anthropic的Claude AI助手据称在回应中抄袭了多个作品的歌词(通常是逐字逐句),而没有进行归属。
因此,环球音乐、康科德等公司呼吁法院强制Anthropic在现有产品中“实施有效的防护措施”,遏制所谓的作品侵权。原告还要求法院禁止被告使用“歌词副本训练未来的AI模型”。
在防护措施方面,Anthropic曾与原告商定“额外的防护措施,并表示愿意与他们合作制定更广泛的防护措施”,但在“不构建性的”对话后,原告选择提出禁令动议。据AI公司称,Anthropic已经制定了“额外的保护措施,以防止显示涉及的歌词”。
AI开发者拒绝了禁令动议及其中的论点,再次表达了在法律下使用受版权保护的内容作为LLM训练数据是合理使用的信念。“尽管Anthropic有信心认为在法律下使用受版权保护的内容作为LLM的训练数据是合理使用——这意味着根本不是侵权——但没有根据可以断定,如果最终胜诉,金钱赔偿将无法弥补原告的损失,”被告表示。
这些评论特指原告因其作品在训练过程中被用作“令牌”而遭受了无法挽回的损害的论点。文中还提到,全国范围内有大约两打类似的诉讼正在进行,但没有提出初步禁令。文本称,“这表明”诉讼中的原告“至少几个月没有通知Anthropic存在所谓无法挽回的错误”。
除了这些高层次的论点外,Anthropic详细描述了Claude的功能及其最常见的用途(“歌词并不是典型Anthropic用户请求的输出之一”)。
有趣的是,尽管领先的AI公司有着广泛的影响力和资本,但被告还认为要求在受版权保护的内容上训练系统获取许可将有效地标志着“今天通用的AI工具”的终结。“无法与足够的权利所有者达成许可交易,以覆盖数十亿文本所需的数万亿令牌,以确保通用LLM的适当训练,”文件中指出,“如果训练LLM需要在受版权保护的内容上获取许可,那么今天的通用AI工具将无法存在”。
Anthropic敦促法院驳回禁令动议,理由是该诉讼的地点(“Anthropic与田纳西州无关”),并试图将所谓的侵权责任归咎于原告自身。“关于原告的[Claude AI]提示产生的副本,记录中唯一的证据是原告及其代理商而不是Anthropic制作了所谓的侵权副本…在这种情况下,输出副本不构成Anthropic的复制。”