根据最新报道,英格兰和威尔士的法官获得了使用ChatGPT(聊天生成预训练模型)进行法律裁决的许可,尽管一些人对人工智能可能捏造不存在的案例提出了警告。
司法办公室向英格兰和威尔士的数千名法官发布了官方指导,表示AI在总结大量文本或执行行政任务方面可能会有所帮助。然而,指导同时指出,像ChatGPT这样的聊天机器人在进行研究时效果较差,容易捏造虚构案例或法律文本。
此外,指导还警告称,ChatGPT等聊天机器人的兴起可能导致公众在提起法律诉讼时广泛使用,并且深度伪造技术可能被用于制造虚假证据。
Sir Geoffrey Vos表示,人工智能在发展更好、更快、更经济的数字司法系统方面提供了重要机会。他强调了法官需要认识到AI可能提供不准确回应的事实,并指出法官与其他人一样,需要敏锐意识到AI可能既会提供准确的回应,也可能提供不准确的回应。
今年早些时候,高级法官Lord Justice Birss曾表示,ChatGPT非常有用,他曾使用这个聊天机器人总结他熟悉的法律领域,并将其复制粘贴到法庭裁决中。他在周一表示,他将ChatGPT用作测试工具,并且在其中使用的内容并未涉及任何秘密或机密信息。
然而,一些美国的律师使用ChatGPT起草法庭文件后遇到了麻烦,因为文件中包含了由该机器人虚构的多个虚构案例。由于AI语言模型是通过预测基于大量文本的一系列词语来编写句子的,因此容易虚构事实。
指导还指出,“目前的公共AI聊天机器人无法产生令人信服的分析或推理”,并强调“司法官员对以其名义制作的材料负有个人责任”。法官还受到了不要将私人信息输入聊天机器人的警告,称这可能导致信息进入公共领域。
指导还明确表示,聊天机器人在被问及法律问题时容易陈述美国法律,因此美国拼写和涉及美国案例的引用是可能由AI生成的迹象。
Sir Geoffrey表示,如果律师使用ChatGPT等聊天机器人提交虚假证据,他们可能面临伪证和刑事制裁,他表示:“他们通过AI聊天机器人得到虚假陈述并不会改变什么,因为这并不是他们从头脑中获得的,而是从AI聊天机器人中获得的。”