- 博客(14)
- 收藏
- 关注
原创 Multimodal+LLM->Rec综述:A Survey on Large Language Models in Multimodal Recommender Systems
多模态推荐系统(Multimodal Recommender Systems, MRS)通过整合用户和物品的异构数据(如文本、图像和结构化信息)来提升推荐性能。大语言模型(Large Language Models, LLMs)的出现为 MRS 带来了新的机遇,使其能够进行语义推理、上下文学习以及动态输入处理。与早期的预训练语言模型(PLMs)相比,LLMs 提供了更高的灵活性和泛化能力,但也带来了可扩展性和模型可访问性方面的挑战。
2025-08-07 12:11:26
576
原创 multimodal->Rec综述:A Survey on Multimodal Recommender Systems: Recent Advances and Future Directions
随着互联网上信息呈爆炸式增长,如何从中获取有价值的数据已成为一个重大问题。推荐系统应运而生,成为帮助用户发现感兴趣内容的一种广泛使用且有效的工具。推荐系统的核心在于其能够预测用户对不同项目的评分或偏好,并基于历史交互数据和公开信息,推荐最相关的项目。随着多样化多媒体服务(包括文本、图像、视频和音频)的出现,人类可以通过多种模态感知世界。因此,一个能够理解和解释不同模态数据的推荐系统,能够更有效地反映个体偏好。
2025-08-05 18:15:14
880
原创 自注意力->Rec(轻量化):Lighter and Better: Low-Rank Decomposed Self-Attention Networks for Next-Item Rec
LightSANs 通过低秩分解自注意力和解耦位置编码,解决了传统自注意力推荐模型中存在的效率低、过参数化和序列建模不准确的问题,实现了更轻量、更精准的序列推荐。自注意力网络(Self-Attention Networks, SANs)已被广泛应用于序列推荐系统中,但它们存在以下两个主要限制:(1)自注意力机制具有二次复杂度,并且容易过参数化;(2)由于使用隐式的位置编码,导致对物品之间序列关系的建模不准确。为了解决这些问题,本文提出了一种低秩分解自注意力网络(LightSANs)。具体而言,我们引入了。
2025-07-10 17:18:12
630
原创 LLM->Rec: (CoT)Leveraging LLM Reasoning Enhances Personalized Recommender Systems
大语言模型(LLMs)在推理任务(如数学、逻辑推理)中表现出色,尤其是在使用“链式思维”(Chain-of-Thought, CoT)提示时。然而,推荐系统(RecSys)任务具有高度主观性和个性化,传统推理方法难以直接迁移。本研究探索如何将 LLM 的推理能力应用于推荐系统,提升个性化推荐的质量。提出自动推理评估框架 RecSAVER,并实验验证推理机制对推荐性能的提升。最近的进展展示了大型语言模型 (LLM) 在执行推理任务方面的潜力,特别是通过思维链 (CoT) 提示来促进。
2025-07-10 15:55:12
746
原创 序列->Rec:Self-Attentive Sequential Recommendation
sequential recommendation(序列推荐) :聚焦推荐系统中的序列动态特性,旨在通过捕捉用户近期行为活动的 “上下文” 来进行物品推荐,强调在序列推荐中结合用户历史行为和近期行为上下文的重要性。自注意力机制的应用 :受到 Transformer 模型的启发,提出基于自注意力机制的序列推荐模型(SASRec),以期在捕捉长期语义信息(密集数据)的同时,能够像马尔可夫链一样基于较少的动作进行预测(稀疏数据),平衡了模型复杂度和数据稀疏性的问题。
2025-07-06 13:24:03
770
原创 LLM->Rec综述:Tapping the Potential of Large Language Models as Recommender Systems...
LLMs作为推荐系统的潜力:论文探讨了大型语言模型(LLMs)在推荐系统中的潜力,特别是在解决传统推荐系统缺乏常识知识和难以理解用户意图的问题上。LLM-RS框架:提出了一个通用的框架LLM-RS,用于总结和指导如何利用LLMs作为推荐系统的基础模型,该框架可以推广到多种推荐场景和任务。LLMs和提示工程:系统分析了LLMs作为推荐系统的两个关键方面:LLMs的选择和提示工程的设计。LLMs的选择包括公开可用性、调优策略、模型架构、参数规模和上下文长度;
2025-04-15 11:29:24
794
原创 LLM->Rec综述:Foundation Models for Recommender Systems: A Survey and New Perspectives
该论文通过体系化的文献梳理和前瞻性思考,不仅填补了FM4RecSys领域的综述空白,更通过跨模态、Agent AI、RAG等交叉创新,为下一代推荐系统提供了理论基石与实践路径。其核心价值在于将分散的研究脉络整合为有机框架,并尖锐指出技术落地中的隐蔽挑战(如隐私、成本),推动领域从“模型性能”向“可信部署”演进。最近,基础模型 (FM) 凭借其广泛的知识库和复杂的架构,在推荐系统 (RS) 领域提供了独特的机会。在本文中,我们试图彻底研究基于 FM 的推荐系统 (FM4RecSys)。
2025-04-13 16:35:03
1826
原创 LLM->Rec论文综述:A Survey on Large Language Models for Recommendation
作者机构: 中国科学技术大学认知智能国家重点实验室;BOSS直聘职业科学实验室;香港科技大学(广州)摘要大型语言模型(LLMs)已成为自然语言处理(NLP)领域的强大工具,并逐渐在推荐系统(RS)中受到广泛关注。这些模型通过自监督学习从海量数据中训练,展现了卓越的通用表征能力,并通过微调、提示调整等技术有效提升了推荐系统的性能。其核心优势在于利用高质量的文本特征表征和丰富的领域知识,建立用户与物品之间的关联。判别式LLM推荐(DLLM4Rec)和生成式LLM推荐(GLLM4Rec)
2025-04-13 16:11:43
1789
原创 LLM->Rec综述:Pre-train, Prompt, and Recommendation: A Comprehensive Survey of...
该论文通过系统性分类、多维度分析和前瞻性讨论,为基于语言模型的推荐系统研究提供了全面的技术路线图,既总结了现有成果,也揭示了未来创新的潜在空间,尤其在提示学习、多模态融合和隐私保护等领域具有重要指导意义预训练语言模型(PLM)在自然语言处理(NLP)领域取得了巨大成功,通过自监督学习从大规模语料库中学习通用表征。这种预训练模型及其学到的表征可有效迁移至下游NLP任务。近年来,这一训练范式被引入推荐系统领域,成为学术界和工业界的研究热点。
2025-04-13 15:25:23
2082
原创 LLM->Rec论文综述:A Survey on Large Language Models for Personalized and Explainable Recommendations
近年来,随着自然语言处理 (NLPLLMs) 领域大型语言模型的出现,推荐系统 (RS) 见证了变革性的转变。这些模型,例如 OpenAI 的 GPT-3.5/4,来自 Meta 的 Llama,在理解和生成类似人类的文本方面表现出前所未有的能力。这导致了个性化和可解释推荐领域的范式转变,因为它LLMs为处理大量文本数据提供了多功能工具集,以增强用户体验。为了全面了解现有的LLM基于推荐系统,本调查旨在分析 RS 如何从基于推荐系统的方法中受益LLM。
2025-04-13 13:36:17
1029
原创 LLM->Rec:TALLRec: An Effective and Efficient Tuning Framework to Align Large Language Model with Rec
大型语言模型(LLMs)在多个领域展现出卓越性能,促使研究者探索其在推荐系统中的应用潜力。现有方法主要利用LLMs的上下文学习(In-context Learning)能力,通过设计提示词(prompt)将推荐任务转化为自然语言处理任务。然而,由于LLMs的训练任务与推荐任务存在显著差异,且预训练阶段缺乏推荐数据,LLMs在推荐任务中的表现仍不理想。
2025-04-08 20:13:17
732
原创 LLM+emb->Rec论文:CTRL: Connect Collaborative and Language Model for CTR Prediction
传统的点击率(CTR)预测模型将表格数据转换为一位热向量,并利用特征之间的协作关系来推断用户的偏好。这种建模范式会丢弃表格数据中特征之间的语义信息。尽管一些工作(如P5和CTR-BERT)已经探索了使用预训练语言模型(PLMs)来提取语义信号用于CTR预测,但它们计算成本高且效率低。此外,这些工作没有考虑协作关系,这会阻碍推荐性能的提升。为了解决这些问题,本文提出了一种新的框架CTRL,它具有工业友好性、模型不可知性,并且具有卓越的推理效率。具体来说,首先将原始表格数据转换为文本数据。
2025-03-22 16:11:55
921
原创 LLM+emb->Rec论文:Exploring the Upper Limits of Text-Based Collaborative Filtering Using LLM
文本基协同过滤(TCF)已成为文本和新闻推荐的主流方法,它利用文本编码器(也称为语言模型)来表示项目。然而,现有的TCF模型主要关注使用小型或中型语言模型。使用像GPT-3这样拥有1750亿参数的超大型语言模型作为项目编码器对推荐性能的影响仍不确定。我们能否期待前所未有的成果?为此,我们进行了一系列广泛的实验,旨在探索TCF范式的性能极限。具体来说,我们将项目编码器的规模从一亿增加到一百亿,以揭示TCF范式的扩展极限。然后,我们检查这些超大型语言模型是否能够为推荐任务提供通用的项目表示。
2025-03-22 14:58:20
2022
原创 LLM->Rec论文综述:How Can Recommender Systems Benefit from Large Language Models: A Survey
LLM for Rec 综述 论文阅读
2025-03-17 15:55:56
1390
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅