Large Language Model with Graph Convolution for Recommendation

本文提出了一种图感知卷积大型语言模型(LLM),旨在解决推荐系统中低质量文本信息的问题。通过利用LLM捕获用户-项目图的高阶关系,增强描述并减少幻觉问题。实验表明,该方法在多个真实世界数据集上优于现有最佳方法。

本文是LLM系列文章,针对《Large Language Model with Graph Convolution for Recommendation》的翻译。

基于图卷积的大型推荐语言模型

摘要

近年来,人们努力在推荐中使用文本信息来更好地进行用户简介和项目特征描述。然而,文本信息有时质量很低,阻碍了其在现实应用中的有效性。随着知识和推理能力被大型语言模型(LLM)所覆盖,利用LLM成为一种很有前途的描述改进方法。然而,现有的用原始文本提示LLM的方法忽略了用户-项目交互的结构化知识,这可能会导致幻觉问题,如不一致的描述生成。为此,我们提出了一种图感知卷积LLM方法,以引出LLM来捕获用户项目图中的高阶关系。为了使基于文本的LLM与结构化图相适应,我们在图处理中使用LLM作为聚合器,使其能够逐步理解基于图的信息。具体而言,LLM是通过逐层探索多跳邻居来进行描述增强所必需的,从而在图中逐步传播信息。为了使LLM能够捕获大规模的图信息,我们将描述任务分解为更小的部分,这大大减少了每一步token输入的上下文长度。在三个真实世界数据集上进行的大量实验表明,我们的方法始终优于最先进的方法。

1 引言

2 相关工作

3 前言

4 提出的方法

5 实验

6 结论

在本文中,我们提出了一种图感知卷积LLM方法来提高用于推荐的文本信息的质量。我们的方法成功地弥合了基于文本的LLM和基于图的多跳信息之间的差距。具体来说,我们设计了一种卷积推理策略,该策略迭代地使用LLM来以最少到最多的方式增强节点的描述。使用这种方法,我们使LLM能够从基于图的角度推断描述信息,从而

已下架不支持订阅

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值