本文是LLM系列文章,针对《Advancing Graph Representation Learning with Large Language Models: A Comprehensive Survey of Techniques》的翻译。
摘要
大型语言模型(LLM)与图表示学习(GRL)的集成标志着分析复杂数据结构的重大发展。这种合作利用LLM复杂的语言能力来提高图模型的上下文理解和适应性,从而拓宽GRL的范围和潜力。尽管越来越多的研究致力于将LLM集成到图领域,但明显缺乏深入分析这些模型中的核心组件和操作的全面综述。我们的调查通过提出一种新颖的分类法来填补这一空白,该分类法从新颖的技术角度将这些模型分解为主要组件和操作技术。我们进一步将最近的文献分解为两个主要组成部分,包括知识提取器和组织者,以及两种操作技术,包括集成和训练策略,从而揭示有效的模型设计和训练策略。此外,我们还确定并探索了这一新兴但未充分开发的领域未来潜在的研究途径,为继续取得进展提出了途径。