本文是LLM系列文章,针对《GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks》的翻译。
摘要
像ChatGPT这样的大型语言模型(LLM)展示了强大的零样本和指令跟踪功能,催化了不同领域的革命性转变,尤其是对于开放式任务。虽然这一想法在图领域的探索较少,尽管有许多强大的图模型(GM)可用,但它们仅限于预定义形式的任务。尽管已经提出了几种将LLM应用于图的方法,但它们无法同时处理预定义和开放的任务,LLM作为节点特征增强器或独立的预测器。为了打破这一困境,我们建议通过一个名为GraphTranslator的翻译器来桥接预训练的GM和LLM,旨在利用GM有效地处理预定义的任务,并利用LLM的扩展接口为GM提供各种开放式任务。为了训练这样的翻译器,我们提出了一个能够根据节点信息、邻居信息和模型信息构建图文对齐数据的Producer。通过将节点表示转换为token,GraphTranslator使LLM能够基于语言指令进行预测,为预定义任务和开放式任务提供统一的视角。大量的结果证明了我们提出的GraphTranslator在零样本节点分类上的有效性。图形问答实验通过语言指令揭示了我们在广泛的开放式任务中的GraphTranslator潜力。我们的代码位于:https://github.com/alibaba/GraphTranslator.
1 引言
2 方法
3 实验
4 结论
在本文中,我们提出了一种新的框架来将图模型(GM)与LLM对齐,称为G

GraphTranslator是一种新型框架,旨在连接预训练的图模型(GM)和大型语言模型(LLM),以处理开放式任务。通过翻译器模块,它将GM的节点嵌入转换为LLM理解的token,从而利用LLM处理多样化任务。实验显示,GraphTranslator在零样本节点分类和图形问答中表现出有效性,展示其在开放任务中的潜力。
已下架不支持订阅

被折叠的 条评论
为什么被折叠?



