对比学习论文阅读 simCLR A Simple Framework for Contrastive Learning of Visual Representations

本文概述了对比学习领域的几篇重要论文,如simCLR、MOCO和BYOL等,强调了数据增强、MLP的作用以及对比学习与监督学习的区别。讨论了学习率策略,如LARS和自适应学习率,以及如何通过局部学习率改善大批量训练的稳定性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

对比学习论文阅读:

对比学习论文阅读 simCLR A Simple Framework for Contrastive Learning of Visual Representations-优快云博客

对比学习论文阅读 MOCO Momentum Contrast for Unsupervised Visual Representation Learning-优快云博客

对比学习论文阅读 BYOL Bootstrap Y our Own LatentA New Approach to Self-Supervised Learning-优快云博客

对比学习论文阅读 SimSiam Exploring Simple Siamese Representation Learning-优快云博客


一个视觉表征对比学习的简单框架 simCLR

对比学习训练网络依赖于借口任务(代理任务),代理任务可能会限制学习到的表征的普遍性

simCLR得出的结论:1、数据增强方式重要;2、在表示层和对比损失层之间加一个可学习的非线性层(MLP)有结果有益;3、与监督学习相比,对比学习受益于更大的批量和更多的训练步骤

hi,hj为MLP层:zi与zj对比损失效果优于hi和hj对比(结论2)

图像的表示效果h仍然优于z所以模型训练完成后,需要保留的是f(·) ,MLP仅是辅助训练过程

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值