Unifying Task-oriented Knowledge Graph Learning and Recommendation

RCoLM模型提出了一种考虑知识图谱不完整性的鲁棒共学习方法,用于推荐系统和知识图谱补全。通过联合模型,RCoLM在任务间迁移知识,提升了推荐的准确性和KG补全性能,同时采用了面向任务的负采样策略增强模型的适应性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Unifying Task-oriented Knowledge

Graph Learning and Recommendation

ABSTRACT

背景

将知识图纳入推荐系统(知识感知推荐),以辅助提高推荐的准确性和可解释性。然而,现有的方法在很大程度上假设知识图谱做推荐时是完整的。但在现实真实的场景中,知识图谱是很难完整的,这就可能导致知识图谱做推荐的性能不理想。

创新点

(1)在本文中,提出了一个鲁棒共学习模型(RCOLM),它考虑了KS(知识图谱)在推荐时的不完整性。RCoLM的目标是利用迁移学习模型在推荐任务和知识图补全(KG完成)任务之间迁移知识。RCoLM试图从KG补全的推荐中利用用户-项目交互项,并将这两项任务合并在一个联合模型中,以便相互增强。
(2)在KG补全任务中,RCoLM提供了一种通用的面向任务的负采样策略,进一步提高了该算法的自适应能力,在知识图谱补全的子任务中获取好的表现起着至关重要的作用。

INTRODUCTION

RCoLM模型的基本思想

(1)使用KG中的事实作为辅助信息,以增强项目推荐的性能。
(2)在推荐中借助用户-项目交互来补全KG(知识图谱)中缺失的事实。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值