本文是LLM系列文章,针对《Large Language Models are Learnable Planners for Long-Term Recommendation》的翻译。
摘要
在建议中,对眼前和长期利益进行规划变得越来越重要。现有的方法通过最大化长期推荐的累积奖励来应用强化学习(RL)来学习规划能力。然而,当从头开始训练RL模型时,推荐数据的稀缺性带来了挑战,如不稳定性和过拟合的易感性,导致性能次优。有鉴于此,我们建议利用大型语言模型(LLM)在稀疏数据上的卓越规划能力进行长期推荐。实现这一目标的关键在于制定一项指导计划,遵循加强长期参与的原则,并以个性化的方式将该计划建立在有效和可执行的行动基础上。为此,我们提出了一个双层可学习LLM规划器框架,该框架由一组LLM实例组成,并将学习过程分解为宏观学习和微观学习,分别学习宏观指导和微观个性化推荐策略。大量实验验证了该框架有助于LLM的长期推荐规划能力。我们的代码和数据可以在https://github.com/jizhi-zhang/BiLLP上找到。
1 引言
2 相关工作
3 前言
4 方法
5 实验
6 结论
在这项工作中,我们探索将大型语言模型(LLM)的规划能力集成到建议中,以优化长期参与。为了弥合预训练场景和推荐场景之间的差距,我们提出了一种称为BiLLP的双层可学习LLM规划框架,其中使用分层机制将学习过程分为宏观学习和微观学习。这种分层方法提高了学习效率和适应性

订阅专栏 解锁全文
452

被折叠的 条评论
为什么被折叠?



