今天,我们要介绍的这篇被顶级会议KDD 2024收录的综述论文《A Survey of Large Language Models for Graphs》由香港大学学者撰写,为我们揭开了LLMs在图学习中应用的神秘面纱。这篇综述不仅深入探讨了LLMs与图数据结合的理论基础和方法论,还为我们指明了未来研究的方向。在本文中,我们将带您走进这篇论文的精彩世界,一探LLMs如何与图学习技术相互融合,共同开启智能计算的新篇章。无论您是数据科学家、AI研究者,还是对这一领域充满好奇的探索者,相信您都能从这篇论文中获得宝贵的洞见。
随着大语言模型的兴起,研究者们开始探索将这些模型应用于图数据的方法。LLMs在处理自然语言方面表现出色,但如何将它们的能力扩展到图结构数据上,是一个全新的挑战。论文《A Survey of Large Language Models for Graphs》正是在这样的背景下应运而生,它为我们提供了一个系统性的视角,来审视和理解LLMs在图学习任务中的应用。在大语言模型时代,一种特殊的图结构—文本属性图(Text-Attributed Graph, TAG)受到了研究者们的额外关注。在TAG中,每个节点都与一段文本相关联,这段文本可以是节点的描述、标签或其他形式的文本信息。这种结构使得图不仅能够表达实体之间的关系,还能够提供关于实体本身的丰富语义信息。通过将LLMs与文本属性图相结合,研究者们可以利用模型的语言理解能力来分析和推理图中的结构和文本信息,从而在诸如节点分类、链接预测等任务中取得更好的性能。
在大语言模型与图学习任务的结合中,一种创新的方法是将图神经网络作为信息处理的前置步骤,即“GNNs as Prefix”。这种方法充分发挥了GNNs在捕捉和理解图结构方面的优势,为后续的LLMs处理提供了结构化和语义丰富的输入。GNNs之所以被选为前缀,是因为它们天生适合处理图结构数据。GNNs通过聚合邻居节点的信息来更新每个节点的表示,能够很好地捕捉节点的局部结构特征。在“GNNs as Prefix”框架下,GNNs首先对图数据进行编码,生成节点或图的嵌入表示。这些嵌入随后作为输入特征提供给LLMs,使得LLMs能够利用其强大的语言理解能力来处理图相关的任务。具体实现可以分为两个子类:
讨论与思考: “GNN as Prefix”方法通过结合图神经网络的结构建模能力和大语言模型的语义建模能力,已经在多个图学习下游任务和实际应用中展现了前所未有的泛化能力。特别是,这种方法证明了其在零样本(zero-shot)场景下的能力,即在没有经过特定任务训练的情况下,模型能够对未见数据进行有效推理。然而也存在一些需要思考的问题,例如这种方法在处理非文本属性图时是否同样有效。许多现有的成功案例依赖于节点或边上的文本信息,但现实世界的图数据可能并不总是包含这样的文本属性,从而限制了模型的发挥。
3.2 LLMs as Prefix
在图学习领域,大语言模型以其卓越的语义理解能力,开辟了一种新颖的途径—"LLMs as Prefix"。这种方法将LLMs的文本处理能力前置,为图神经网络提供丰富的语义信息和上下文,以增强图数据的学习和推理过程。LLMs在预训练过程中接触了大量的文本数据,从而学习到了丰富的语言模式和世界知识。在"LLMs as Prefix"框架下,这些知识被用来增强图数据的语义表达。LLMs首先对图相关的文本属性进行编码,生成文本嵌入,这些嵌入随后用于辅助GNNs的节点或图的表示学习。"LLMs as Prefix"的实现可以分为两个主要方向:
1. Embeddings from LLMs for GNNs: LLMs用于生成节点或图的初始嵌入,这些嵌入捕获了节点的语义信息,可以作为GNNs的输入或与GNNs生成的嵌入相结合,以提高图学习任务的性能。
2. Labels from LLMs for GNNs: LLMs用于生成或辅助生成训练标签,这些标签可能是类别标签、属性描述或关系模式,用于指导GNNs的训练和推理。