Knowledge Prompt-tuning for Sequential Recommendation
论文介绍
本文主要介绍了一种新的序列推荐方法——Knowledge Prompt-tuning for Sequential Recommendation (KP4SR),该方法通过引入外部知识库,使用知识提示来同时利用领域内和通用知识,从而提高推荐系统的准确性和可解释性。具体而言,KP4SR将结构化的知识图转化为知识提示,并引入了知识树和知识树掩码来处理知识噪声问题。实验结果表明,KP4SR在三个真实世界数据集上均优于其它方法。
本文最主要的创新点
- 提出了一种知识提示调整(Knowledge
Prompt-tuning,简称KP4SR)方法,将结构化知识图谱转换为知识提示,以改善序列推荐(Sequential Recommendation,SR)中的语义差距问题。 - 设计了一组关系模板,将三元组转换为三元组提示,并将它们组合成知识提示,以丰富项目的语义特征,提高推荐结果的准确性和可解释性。
- 提出了一种提示去噪(Prompt Denoising)方法,构建了一个知识树,并提出了一种知识树掩码,以恢复数据结构并减轻噪声问题。
- 在三个实际数据集上评估了KP4SR,实验结果表明,该方法在多个评估指标上优于现有的最先进方法。
Recommendation as Language Processing (RLP): A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5)
论文介绍
本文主要介绍了一种称为"Recommendation as Language Processing (RLP): A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5)“的泛学术类文献阅读助手。该助手通过将各种推荐相关任务整合到一个共享的条件语言生成框架中,提出了一个统一的"预训练、个性化提示和预测范式”。文章通过实际数据的评估和与其他方法的对比,回答了关于P5方法的几个研究问题。
本文最主要的创新点
- 提出了一种统一的"Pretrain, Personalized Prompt & Predict
Paradigm"(P5),将不同的推荐任务整合到一个共享的自然语言生成框架中。 - 设计了一个覆盖五个推荐任务家族的个性化提示集合,将用户-项目交互、用户描述、项目元数据和用户评论转换为相同的输入-目标文本对格式。
- 通过在全语言环境中预训练P5,使其能够发现各种推荐任务的深层语义,从而在五个任务家族上实现与多任务提示为基础的训练相当或更好的性能。
- 证明了P5在新项目、新领域和新个性化提示上具有零样本泛化能力。
Learning Vector-Quantized Item Representation for Transferable Sequential Recommenders
论文介绍
论文试图解决的问题是如何学习具有可迁移性的序列推荐器的向量量化项目表示。通过提出一种名为VQ-Rec的新方法,作者通过将项目文本映射到离散编码作为项目索引,从而在多个领域中实现高效的迁移学习。该方法通过使用优化的产品量化(OPQ)技术对项目的文本编码进行量化,从而在项目集合中均匀分布离散编码,以实现高度可区分的项目表示。实验证明了该方法在多个基准测试中的有效性和可迁移性。
本文最主要的创新点
本文最主要的创新点是提出了一种新的项目表示方案,用于可迁移的序列推荐器。该方案首先将项目文本映射到一个离散索引向量(称为项目代码),然后使用这些索引查找代码嵌入表以生成项目表示。这种方案可以表示为“文本 ⇒ 代码 ⇒ 表示”。为了学习和迁移这些项目表示,作者还提出了特定的对比推荐器预训练和跨域推荐器微调策略。
One Person, One Model, One World: Learning Continual User Representation without Forgetting
论文介绍
本文的主要内容是介绍了一个称为Conure的任务级终身用户表示模型。该模型通过连续学习不同的任务来学习用户的表示,可以用于个性化推荐系统和用户属性预测等多个用户相关任务。作者通过实验证明了Conure模型在多个任务上取得了与经典学习范式相当或更好的性能。
本文最主要创新点
本文最主要的创新点包括以下几点:
- 提出了一个新的研究领域和学习范式,用于处理一系列不同任务,这些任务可以依次或分开地出现。
- 提出了Conure,一个具有终身学习能力的用户表示学习框架,它可以在不忘记旧任务的情况下通过重要知识保留实现对新任务的正向迁移,以及在训练过程中动态调整参数。
- 通过实验证明,Conure可以在保持较低存储开销的同时,实现与传统学习范式(包括单任务、多任务和迁移学习)相当或更好的性能。
- 证明了Conure框架可以应用于其他类型的网络结构,例如自注意力Transformer。
Towards Open-World Recommendation with Knowledge Augmentation from Large Language Models
论文介绍
本文的主要内容是关于如何利用大型语言模型(LLM)从开放世界中提取知识,并将其应用于推荐系统中。作者介绍了一个名为KAR(Knowledge Augmentation from Large Language Models)的框架,该框架包括三个阶段:知识推理和生成、知识适应以及知识利用。通过使用LLM,可以从用户和物品的角度生成推理知识和事实知识,然后将这些知识与原始领域特征相结合,用于推荐模型的预测。作者还提出了因子分解提示的方法,将复杂的用户偏好推理问题分解成几个关键因素,以生成开放世界知识。最后,作者在华为的新闻和音乐推荐平台上部署了KAR,并取得了显著的改进。
创新点
- 提出了一个开放世界推荐系统框架(KAR),利用大型语言模型将领域外知识与推荐系统相结合。KAR首先通过因子分解提示从大型语言模型中提取与推荐相关的知识,然后通过混合专家适配器将这些知识转换为与推荐任务兼容的增强向量。最后,将增强向量与原始领域特征相结合,以提高推荐模型的性能。
- KAR采用三个阶段:知识推理与生成、知识适应和知识利用。在知识推理