原文:Chen, Xinlei, Haoqi Fan, Ross B. Girshick and Kaiming He. “Improved Baselines with Momentum Contrastive Learning.” ArXiv abs/2003.04297 (2020).
源码:https://github.com/facebookresearch/moco
对比无监督学习最近取得了令人鼓舞的进展,例如动量对比(MoCo)和SimCLR。在本文中,我们通过在MoCo框架中实现SimCLR的两项改进来验证它们的有效性。通过对MoCo的简单修改,即使用MLP投影头和更多数据增广,我们建立了比SimCLR更强的基线MoCo v2,而不需要大量的训练。
★ 背景知识
★ 模型方法
如图1所示,在端到端机制中(图1a),负keys来自同一批次,并通过反向传播进行端到端更新。SimCLR基于这种机制,需要大量的批处理来提供大量的负样本。在MoCo机制中(图1b),负keys保持在队列中,并且在每个训练批次中,只对queries和正keys进行编码。我们采用动量编码器以提高当前和之前keys之间的表示一致性。MoCo对批量大小和负样本数量进行了解耦。
图1:对比学习的两种优化机制。
★ 实验结果
表1:通过ImageNet线性分类和VOC目标检测评估MoCo基线。
表2:MoCo与SimCLR的对比。
表3:在8个V100 16G显卡上的内存和时间成本。
★ 总结讨论
我们发现SimCLR中使用的两种改进,即MLP投影头和更强的数据增广,当与MoCo一起使用时,它们会产生更好的图像分类和目标检测迁移学习结果。此外,MoCo框架可以处理大量负样本,而无需大量训练。MoCo v2可以在典型的8-GPU机器上运行,对计算资源的要求比SimCLR低,但结果更好。
欢迎关注“多模态人工智能”公众号,一起进步^_^↑