【曝光偏差】MCL: Mixed-Centric Loss for Collaborative Filtering

该论文提出了一种名为MCL的新型损失函数,用于协同过滤。MCL通过挖掘难正负样本并赋予它们权重,改进了传统逐点和成对损失函数。在更新节点表示时,考虑了其他用户和商品的全局信息,提高了推荐系统的性能。实验表明,MCL在复杂度和效果上优于一些现有方法。

#论文题目:MCL: Mixed-Centric Loss for Collaborative Filtering(MCL:混合中心损失用于协同过滤)
#论文地址:https://www.cs.toronto.edu/~mvolkovs/WWW2022_MCL.pdf
#论文源码开源地址:https://github.com/layer6ai-labs/MCL/tree/master/code
#论文所属会议:WWW 2022

一、引言 & 创新点

推荐系统模型中通常采用逐点损失(CE)和成对损失(BPR),很少探索如何从可用的偏好信息中最优地提取信号。对负样本进行采样后,通常利用正样本和采样的负样本来更新权重。这可能会忽略来自其他用户和商品的有价值的全局信息,并不能得到最终好的结果。

本文提出的MCL方法解决了上述问题。MCL方法是在用其他方法(如:CML、LightGCN、NeuMF等)得到网络中各节点的表示向量后,在进行迭代求解每个节点的向量表示的最优值时,首先挖掘并标记出富含信息的难(正负)样本对,然后为难样本分配更多的权重。加权过程由四个不同的组件组成,并结合了来自其他用户的距离信息,使模型能够更好地学习的表征。

二、实验方法

2.1 样本对的挖掘

此步骤的主要目的是找到难正/负样本
文章借助了《Xun Wang, Xintong Han, Weilin Huang, Dengke Dong, and Matthew R Scott. 2019. Multi-similarity loss with general pair weighting for deep metric learning. In Proceedings of the IEEE/CVF Conference on Computer Vision and Patte

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值