本文是LLM系列文章,针对《CoRAL: Collaborative Retrieval-Augmented Large Language
Models Improve Long
摘要
由于数据稀疏和数据不平衡的问题,长尾推荐对传统的推荐系统来说是一项具有挑战性的任务。最近开发的大型语言模型(LLM)显示了它们在复杂推理方面的能力,这有助于根据很少的先前交互推断用户的偏好。然而,由于大多数基于LLM的系统依赖于项目的语义作为推理的唯一证据,因此忽略了用户-项目交互的协作信息,这可能导致LLM的推理与数据集的特定任务协作信息不一致。为了进一步使LLM的推理与特定任务的用户-项目交互知识相一致,我们引入了协作检索增强LLM,即CoRAL,它直接将协作证据纳入提示中。基于检索到的用户-项目交互,LLM可以分析用户之间共享和不同的偏好,并总结指示哪些类型的用户会被某些项目吸引的模式。检索到的协作证据提示LLM将其推理与数据集中的用户-项目交互模式相一致。然而,由于输入提示的容量是有限的,因此为推荐任务找到最低限度的足够的协作信息可能是一项挑战。我们建议通过顺序决策过程找到最优交互集,并开发通过强化学习(RL)框架CoRAL学习的检索策略。我们的实验结果表明,CoRAL可以显著提高LLM在特定推荐任务上的推理能力。我们的分析还表明,CoRAL可以通过强化学习更有效地探索协作信息。
1 引言
2 相关工作
3 问题定义
4 提议的框架:CORA
5 实验
6 结论
在本文中,我们重点研究具有长尾项目的基于协作过滤的推荐系统。我们介绍了Co

订阅专栏 解锁全文
1096

被折叠的 条评论
为什么被折叠?



