最近,美国乔治亚州立大学的研究人员进行了一项道德图灵测试。他们想要了解人类对两个不同来源回答道德问题的反应。结果显示,人们更相信人工智能(AI)的回答。这一发现引发了人们对 AI 是否能成为更好的道德裁判的讨论。
该研究的主要发现是: "参与者对来自 AI 和人类的回答进行评分,而且在德行、智慧和信任度方面,他们更倾向于选择 AI 的回答。" 这种 "压倒性的" 倾向让人不禁对 "德行、智慧和信任度" 这些词感到震惊。
如果 AI 在引导我们处理道德问题方面确实比神职人员、哲学家或总是在酒吧里见到的自以为是的菲尔更好,那么它应该一直陪伴我们,帮助我们解决生活中的伦理不确定性。
想象一下,AI 能为存在偏见的教师或政治上受损的法官提供何等帮助。在现实世界中,我们可以立即问这样的问题:"噢,你说那是对的。但是 AI 怎么看?"
然而,乔治亚州立大学研究人员似乎已经积极考虑了这一点。首席研究员埃亚尔・阿哈罗尼观察到:"对法律系统中的道德决策一直很感兴趣,但我想知道 ChatGPT 和其他大规模语言型是否能对此发表意见。"
然而,阿哈罗尼并不完全相信 AI 在道德上的真正优越性他指出:"如果我们想使用这些工具,我们应该了解它们的运作方式、局限性,以及它们在与它们交互时并不一定按我们所想的方式运作。"
研究人员并没有告诉参与者两个回答来源。在得到参与者的判断之后,阿哈罗尼透露其中一个回答来自人类,另一个来 AI,并询问他们是否能分辨出哪个是哪个。他们能分辨出来。
他解释道:"人们之所以能分辨出差异,似乎是因为他们认为 ChatGPT 的回答更好。" 等等,所以他们自动为 ChatGPT 已经比人类道德思考更优越了吗?
这时候应该提到,参与者都是学生,以也许他们一直在使用 ChatGPT 来写论文,因此已经相信它比自己更好。
虽这些结果令人兴奋,但仅凭一个 "相信" 词是不够的。如果我在一个道德困境中犹豫不决,那么很令人振奋的是我可以求助于 ChatGPT,获得关于是否应该起诉某人的指导然而,我可能会认为 ChatGPT 的回答更具道德性,但我可能被愚弄了。
阿哈罗尼确实更加慎。他说:"人们会越来越多地依赖这项技术,我们越依赖它,随着时间的推,风险就会越大。"