本文是LLM系列文章,针对《MuseGraph: Graph-oriented Instruction Tuning of Large Language Models for Generic Graph Mining》的翻译。
摘要
在各种现实世界应用中,具有丰富属性的图对于建模互连实体和改进预测至关重要。传统的图神经网络(GNN)通常用于对属性图进行建模,当应用于不同的图任务和数据集时,每次都需要重新训练。尽管大型语言模型(LLM)的出现为自然语言处理引入了一种新的范式,但LLM在图挖掘中的生成潜力在很大程度上仍未得到充分挖掘。为此,我们提出了一个新的框架MuseGraph,它无缝集成了GNN和LLM的优势,并促进了跨不同任务和数据集的更有效和通用的图挖掘方法。具体来说,我们首先通过所提出的自适应输入生成引入了一种紧凑的图描述,以在语言标记限制的约束下封装图中的关键信息。然后,我们提出了一种多样化的指令生成机制,该机制从LLM(例如,GPT-4)中提取推理能力,为不同的图任务创建特定任务的基于思想链的指令包。最后,我们提出了一种图感知的指令调优,它具有跨任务和数据集的动态指令包分配策略,确保了训练过程的有效性和通用性。我们的实验结果表明,在不同的图任务中有了显著的改进,展示了我们的MuseGraph在保持LLM的生成能力的同时,在提高面向图的下游任务的准确性方面的潜力。
1 引言
2 相关工作
3 MUSEGRAPH框架
4 实验
5 结论
在本文中,我们介绍了MuseGraph,这是一种跨不同任务和数据集进行图挖掘的有效且通用的方法,它还可以缓解语言标记限制带来的挑战。通过创新设计具有自适应输入生成的紧凑图描述、生

MuseGraph是一个融合GNN和LLM优势的框架,用于图挖掘任务。它使用自适应输入生成、多样化指令生成和图感知指令调优,提高了跨任务和数据集的效率和准确性。实验证明,MuseGraph在图任务中表现优秀,同时保持LLM的生成能力。
订阅专栏 解锁全文
685

被折叠的 条评论
为什么被折叠?



