本文是深度学习系列文章,针对《Revisiting Recommendation Loss Functions through Contrastive Learning》的翻译。
摘要
受对比学习成功的启发,我们系统地研究了推荐损失,包括列表(softmax)、成对(BPR)和点(MSE和CCL)损失。在这项工作中,我们引入了InfoNCE+,这是对具有平衡系数的InfoNCE的优化泛化,并强调了它的性能优势,特别是在与我们新的解耦对比损失MINE+相一致时。我们还利用已去偏置的InfoNCE对逐点推荐损失(CCL)进行去偏置,作为去偏置CCL。有趣的是,我们的分析表明,像iALS和EASE这样的线性模型本质上是去偏的。实证结果证明了MINE+和去偏CCL的有效性。