本文是LLM系列文章,针对《Graph Learning in the Era of LLMs: A Survey from the Perspective of Data, Models, and Tasks》的翻译。
LLMs时代的图学习:数据、模型和任务视角的综述
摘要
随着跨域文本属性图(TAG)数据(如引用网络、推荐系统、社交网络和人工智能科学)的日益普及,将图神经网络(GNN)和大型语言模型(LLM)整合到一个统一的模型架构中(如LLM作为增强器,LLM作为协作者,LLM为预测器)已成为一种有前景的技术范式。这种新的图形学习范式的核心在于GNN捕捉复杂结构关系的能力和LLM从丰富的图形文本描述中理解信息上下文的能力的协同结合。因此,我们可以利用具有丰富语义上下文的图形描述文本从根本上提高数据质量,从而根据以数据为中心的机器学习原则提高以模型为中心的方法的表示能力。通过利用这些不同的神经网络架构的优势,这种集成方法解决了广泛的基于TAG的任务(例如,图形学习、图形推理和图形问答),特别是在复杂的工业场景中(例如,监督、小样本和零样本设置)。换句话说,我们可以将文本视为一种媒介,实现图学习模型的跨域泛化,使单个图模型能够有效地处理不同数据域下游基于图的任务的多样性。这项调查全面回顾了LLM时代的图学习,介绍了围绕机器学习的三