本文概要:
1. 研究人员通过添加两个词来减少大型语言模型中的幻觉。
2. 这种简单的技术可以提高答案的准确性。
3. 该技术对于较大的指令调整模型最为有效。
约翰·霍普金斯大学的研究人员发现了一种简单的技术,可以减少大型语言模型(LLM) 中的幻觉并提高答案的准确性。通过在查询中添加“根据”,LLM更有可能引用观察到的文本并提供事实信息,而不是捏造答案。
他们使用 QUIP 分数指标对语言模型的回答进行审查,发现当在查询中加入“根据维基百科……”等基础提示时,引用信息的准确性可以提高5-15%。这种技术尤其在较大的指令调整模型中表现出色。
研究人员指出,通过使用基础提示词,大型语言模型更有可能引用观察到的文本并提供真实的事实信息,而不是虚构的答案。
这一发现有助于提高人工智能系统的可信度和准确性,并减少系统产生虚假信息的情况。然而,研究人员也指出,这种技术在不同的语言模型和应用场景中可能会有所不同,需要进一步的研究和优化。
总体而言,这项研究为改进语言模型的质量和可靠性提供了一个简单有效的方法。