近日,谷歌在ICLR2024上推出了一项重大成果:他们成功让大型语言模型(LLMs)学会理解「图的语言」,性能提升了高达60%。这项研究解决了LLMs在处理图形问题上的瓶颈,开启了图形数据与文本表示之间的新篇章。
图形结构作为信息组织的一种重要方式,在计算机科学领域中无处不在。然而,由于LLMs主要在常规文本上训练,缺乏对图形结构的理解,这使得将图形转换为LLMs可理解的文本成为一项复杂的任务。谷歌团队通过设计GraphQA基准测试,旨在评估LLMs针对特定图形问题的能力,并创造了一种让LLMs能够解决图形相关问题的方式,从而显著提高了LLMs在图形任务上的表现。
研究团队采用了多种方法将图形编码为文本,并将文本与问题反馈给LLMs进行处理。通过调查节点编码和边缘编码等关键问题,他们成功地改善了LLMs在图形问题上的性能。实验结果显示,选择合适的编码方式对LLMs的准确度有显著影响,而在图形推理任务中,规模更大的模型表现更好,但对于某些特定任务,模型规模并不是唯一的关键因素。
此外,研究团队还发现图的结构对LLMs的性能有着重要影响。在不同的图形任务中,LLMs的表现受到图形结构的影响,而提供一些混合样本可以帮助LLMs适应不同类型的图形结构,从而提高性能。
这项研究为解决LLMs在图形问题上的挑战提供了新的思路和方法。通过合理地将图形数据转换为文本表示,并结合适当的编码方式和任务类型,谷歌团队成功提升了LLMs在图形任务上的性能,为未来更深入的研究和应用打下了基础。