一项最新研究警告大众,不要在心理学和心理治疗领域使用ChatGPT等大型语言模型。研究人员认为,这些模型在生成心理上有用的信息方面存在根本性的限制,同时缺乏同理心和对人类理解的能力。
研究中的共同作者之一、斯坦福大学研究生院教育数据科学教授Dora Demszky表示:“它们无法表现出同理心或人类理解。”
研究人员指出,大型语言模型缺乏"心灵理论",即对他人心理状态的理解。大卫·耶格(David Yeager),德克萨斯大学奥斯汀分校心理学教授兼研究论文的合著者之一,指出虽然这些模型可以生成类似人类的文本,但它们不具备专业心理学家或亲密友人的深刻理解。
为了解决这一问题,研究人员呼吁学术界和产业界合作,开展类似“人类基因组计划”的国际研究项目。这一合作应包括开发关键数据集、制定标准基准,特别是用于心理治疗,以及共享的计算基础设施,以发展在心理学领域有用的语言模型。
这一呼吁的背后有双重动机。首先,研究人员担心“制造生成性人工智能系统的公司因为没有评估这些系统对人类思维或行为的影响而承担心理伤害责任的世界”,耶格说。其次,他们看到了这些模型的潜力:“我们认为,尽管大型语言模型有潜力推动心理测量、实验和实践,但它们还没有准备好用于最具变革性的心理应用,但进一步的研究和发展可能会实现这种用途。”