本文是LLM系列文章,针对《A Survey of Large Language Models for Graphs》的翻译。
摘要
图形是一种重要的数据结构,用于表示实际场景中的关系。先前的研究已经确定,图神经网络 (GNN) 在以图为中心的任务(例如链接预测和节点分类)中提供了令人印象深刻的结果。尽管取得了这些进步,但数据稀疏和泛化能力有限等挑战仍然存在。最近,大型语言模型 (LLM) 在自然语言处理中受到了关注。他们在语言理解和总结方面表现出色。将 LLM 与图学习技术集成作为提高图学习任务性能的一种方式引起了人们的兴趣。在这项调查中,我们对图学习中应用的最新最先进的 LLM 进行了深入审查,并引入了一种新的分类法,根据框架设计对现有方法进行分类。我们详细介绍了四种独特的设计:i) GNN 作为前缀,ii) LLM 作为前缀,iii) LLM 图形集成,以及 iv) 仅 LLM,重点介绍了每个类别中的关键方法。我们探讨了每个框架的优势和局限性,并强调了未来研究的潜在途径,包括克服当前 LLM 和图学习技术之间的集成挑战,以及探索新的应用领域。本调查旨在为渴望在图学习中利用大型语言模型的研究人员和从业者提供宝贵的资源,并激励这一动态领域的持续进步。我们始终维护相关