MoCo v2:改进的MoCo基线

原文:Chen, Xinlei, Haoqi Fan, Ross B. Girshick and Kaiming He. “Improved Baselines with Momentum Contrastive Learning.” ArXiv abs/2003.04297 (2020).

源码:https://github.com/facebookresearch/moco

对比无监督学习最近取得了令人鼓舞的进展,例如动量对比(MoCo)和SimCLR。在本文中,我们通过在MoCo框架中实现SimCLR的两项改进来验证它们的有效性。通过对MoCo的简单修改,即使用MLP投影头和更多数据增广,我们建立了比SimCLR更强的基线MoCo v2,而不需要大量的训练。

★  背景知识

MoCo:无监督视觉表示学习中的动量对比

SimCLR:一个简单的视觉表示对比学习框架

SimCLR v2:自监督模型是强大的半监督学习者

★  模型方法

如图1所示,在端到端机制中(图1a),负keys来自同一批次,并通过反向传播进行端到端更新。SimCLR基于这种机制,需要大量的批处理来提供大量的负样本。在MoCo机制中(图1b),负keys保持在队列中,并且在每个训练批次中,只对queries和正keys进行编码。我们采用动量编码器以提高当前和之前keys之间的表示一致性。MoCo对批量大小和负样本数量进行了解耦。

图1:对比学习的两种优化机制。

  实验结果

表1:通过ImageNet线性分类和VOC目标检测评估MoCo基线。

表2:MoCo与SimCLR的对比。 

表3:在8个V100 16G显卡上的内存和时间成本。

  总结讨论

我们发现SimCLR中使用的两种改进,即MLP投影头和更强的数据增广,当与MoCo一起使用时,它们会产生更好的图像分类和目标检测迁移学习结果。此外,MoCo框架可以处理大量负样本,而无需大量训练。MoCo v2可以在典型的8-GPU机器上运行,对计算资源的要求比SimCLR低,但结果更好。

欢迎关注“多模态人工智能”公众号,一起进步^_^↑

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值