一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。
最近的一项研究中,加拿大滑铁卢大学的研究人员系统地测试了ChatGPT对六个类别的声明(事实、阴谋、争议、误解、刻板印象和虚构)的理解。他们发现GPT-3经常出错,在一次回答过程中自相矛盾,并重复有害的错误信息。
计算机科学David R. Cheriton学院的教授丹·布朗表示:“大多数其他大型语言模型都是基于OpenAI模型的输出进行训练的。所有这些模型都反复出现了我们在研究中发现的这些问题。”
研究中,研究人员使用了四种不同的调查模板,询问了超过1200个不同的陈述,涵盖了六个类别的事实和错误信息。