据美媒报道,专家们对热门平台如ChatGPT等AI程序的幻觉现象提出了担忧。所谓的AI幻觉是指信息看似正确,但实际上是不准确的现象。
ChatGPT等平台出现提供不准确信息的情况。例如,杜克大学图书馆指出存在虚假引用的问题,福布斯发表了一篇新闻报道,指出ChatGPT通过虚假摘要愚弄了科学家,而《财富》杂志引用了一项研究,显示ChatGPT在回答数学问题时的准确率从98%下降到仅为2%。
针对是否ChatGPT是在编造信息、错误解释数据或依赖于错误信息的问题,ChatGPT的回应是,它的回应是基于其在截至2021年9月最后更新前所训练数据和输入的模式生成的。然而,如果输入数据或查询存在缺陷,AI模型可能会产生不正确或不准确的信息,但这与传统意义上的幻觉并不相同。
根据AI创新领袖Usha Jagannathan的建议,她表示我们需要始终引用来源或验证信息的准确性,以确保我们使用了正确的详细信息。可以通过查看学术研究和报告的Google Scholar、主要来源以及领域内的专家来检查信息的准确性。