RecGURU: Adversarial Learning of Generalized User Representations for Cross-Domain Recommendation

背景

现有跨域推荐方法的一个共同局限是,它们主要基于重叠用户的数据进行迁移学习,当两个领域中重叠用户很少甚至没有时,这些方法就无法很好地发挥作用。然而,在许多实际应用中,往往没有足够数量的重叠用户。

贡献

RecGURU由两部分组成:广义用户表示单元(GURU),用于为每个用户获取单一的广义用户表示(GUR);跨域序列推荐(CDSRec)单元,用于在序列推荐任务中实现跨域协作。我们没有采用将用户嵌入从一个域映射到另一个域的方法,而是提出泛化用户嵌入,即其GUR,通过对抗学习框架整合来自两个域的信息。一旦为每个用户获得了GUR,我们就使用注意力机制将提取的GUR整合到CDSRec单元中,以提高推荐性能。

贡献: 第一,在GURU模块中,我们提出了一种自动编码器,用于在每个域中生成有信息价值的用户嵌入,随后通过对抗学习将这些嵌入统一为一种广义嵌入,即GUR。

此外,我们为RecGURU引入了一种有效且稳定的训练过程。我们首先对自动编码器进行预训练,大幅降低重构损失,为后续的对抗学习提供良好的开端。在对抗学习阶段,重构损失以多任务方式进一步联合优化,这可以防止编码器生成不合理的表示,稳定对抗学习。同时,RecGURU仍然可以像先前的工作一样利用重叠用户,在优化过程中引入l_2惩罚项,明确强制每个共同用户在不同域中具有相同的共享嵌入。最后,结合了GUR和注意力机制的CDSRec模块,在目标域中通过下一项推荐任务进行微调,以提高推荐性能。 

问题定义

单域场景下基于隐式反馈的序列推荐问题。

U = \{u_1, \cdots, u_{|U|}\}V = \{v_1, \cdots, v_{|V|}\}分别表示用户集和物品集,其中|U||V|是用户和物品的总数。对于每个用户u_i\forall i \in \{1, \cdots, |U|\},其与物品的交互按时间顺序表示为s^i = (v_1^i, \cdots, v_{|s^i|}^i) ,其中|s^i|是行为序列s^i的长度。

正式地说,给定一个用户u_i,序列推荐旨在根据其过去的行为序列s^i,预测该用户在下一步|s^i| + 1最有可能交互的下一个物品,这可以形式化为对所有物品的概率建模:p(v_{|s^i| + 1}^i = v|s^i)

在跨域场景中,为了提高推荐性能,还会考虑来自其他域的用户信息。具体来说,对于两个域A和B,给定一个在两个域中都出现的重叠用户u_i \in (U_A \cap U_B),跨域序列推荐试图通过整合来自两个域的用户信息来提高一个域中下一个物品的推荐准确率。

例如,对于域A中的下一个物品推荐,可以将其形式化为在给定域A和B中的行为序列s_A^is_B^i的情况下,对所有可能候选物品的概率建模:p(v_{|s_A^i| + 1}^i = v|s_A^i, s_B^i)

对于非重叠用户,由于他们在两个域中都缺乏行为数据,我们只能利用来自另一个域的隐式信息来提高目标域的推荐性能。因此,重新表述为:p(v_{|s_A^i| + 1}^i = v|s_A^i, info(S_B))

其中S_B = \{s_B^j\}

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值