一、监督学习中的损失函数公式

在监督学习中,上面公式是我们最常见的形式,其中,q为query representation,也就是特征,w_y是fc层的权重,相乘得到logits。
二、长尾中重加权的损失函数公式
以Class-Balanced Loss Based on Effective Number of Samples这篇论文为例,为了解决数据的不平衡问题,通常在传统损失函数前面乘以权重。
三、无监督对比学习MoCo
简单介绍一下这个著名的算法MoCo,即Momentum Contrast。
首先,在没有标签的情况下,我们通过数据增强来得到正样本和负样本,比如,对原始的一张图片a分别进行两次数据增强得到b、c,b、c来自同一张图片,这就是一对正样本,而来自不同图片的就是负样本。
对比学习就是当我们没有样本的标签时,我们希望通过衡量样本和样本之间的特征相似性来对它们进行区分,也就是减小与正样本的距离,拉大与负样本的距离,

MoCo的损失函数如下图所示(用的也就是InfoNCE损失函数)。首先,query q就是当前的样本,keys k就是键值,在字典dictionary中存在K个负样本keys,与q相匹配(也就是来自同一张图片)的key为正样本,称为k+,也就是有K个负样本,一个正样本k+。t代表的是 temperature超参数。

本文探讨了在长尾分布数据中,对比学习的挑战与解决方案。从监督学习的损失函数出发,介绍了Class-Balanced Loss解决数据不平衡的方法。接着,详细解析了无监督对比学习算法MoCo的工作原理,特别是其动量更新和队列存储策略。随后,讨论了有监督对比学习如何处理多正样本的情况。最后,文章聚焦于Parametric Contrastive Learning,该方法结合MoCo与长尾学习,通过参数调整平衡正负样本的影响。
最低0.47元/天 解锁文章
1217

被折叠的 条评论
为什么被折叠?



