
在 CL 中,将同一批次中的所有非正样本作为负样本,可以简单的快速获取大量负样本,CL_loss 意在最大化正对的相似性并最小化负对的相似性。而BPR 一般采用随机抽取的方式使用一个或几个负样本,BPR_loss意在最大化正样本和负样本之间的距离。它们都是通过对比过程学习的,所以BPR 损失也可以看成对比损失的一种。
为解决 CL 中正负样本不均衡的问题,作者提出了多采样正样本的 CL ,如上图。正负样本添加了权重来权衡它们之间的重要性,还可以同时使用多个正样本来参与 CL。

ICL (加入权重后的 CL_loss): a ∈(0,1)

本文探讨了对比学习(CL)在推荐系统中的应用,指出传统CL正负样本不平衡的问题,并提出多采样正样本的CL(MCL),通过加权和多路径学习优化正样本的使用。此外,文章还介绍了MSCL损失函数,用于同时考虑多个正样本,以提升推荐效果。作者认为将用户交互项目视为相似可能欠妥,并分享了一篇相关知乎文章供读者参考。
最低0.47元/天 解锁文章
4767

被折叠的 条评论
为什么被折叠?



