Graph Learning in the Era of LLMs: A Survey from the Perspective of Data, Models, and Tasks

本文是LLM系列文章,针对《Graph Learning in the Era of LLMs: A Survey from the Perspective of Data, Models, and Tasks》的翻译。

摘要

随着跨域文本属性图(TAG)数据(如引用网络、推荐系统、社交网络和人工智能科学)的日益普及,将图神经网络(GNN)和大型语言模型(LLM)整合到一个统一的模型架构中(如LLM作为增强器,LLM作为协作者,LLM为预测器)已成为一种有前景的技术范式。这种新的图形学习范式的核心在于GNN捕捉复杂结构关系的能力和LLM从丰富的图形文本描述中理解信息上下文的能力的协同结合。因此,我们可以利用具有丰富语义上下文的图形描述文本从根本上提高数据质量,从而根据以数据为中心的机器学习原则提高以模型为中心的方法的表示能力。通过利用这些不同的神经网络架构的优势,这种集成方法解决了广泛的基于TAG的任务(例如,图形学习、图形推理和图形问答),特别是在复杂的工业场景中(例如,监督、小样本和零样本设置)。换句话说,我们可以将文本视为一种媒介,实现图学习模型的跨域泛化,使单个图模型能够有效地处理不同数据域下游基于图的任务的多样性。这项调查全面回顾了LLM时代的图学习,介绍了围绕机器学习的三

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值