SimCLR论文 自监督学习效果逼近监督学习

论文:A Simple Framework for Contrastive Learning of Visual Representations

论文链接:https://arxiv.org/pdf/2002.05709.pdf

Lecun在2020的AAAI上表示看好自监督学习,在近两年,self-supervised learning的成果也越来越多,如MoCo,CPC等等。Hinton组的这篇SimCLR,比之前的SOTA方法在InageNet的top1的accuracy上提高了7个百分点,虽然有人说这篇文章属于暴力美学,但还是值得一读的。
在这里插入图片描述
在参数相同的情况下,ImageNet的top1 accuracy高于其他SOTA方法7个百分点及以上,更加接近supervised learning。

在这里插入图片描述
网络结构如上图:
(1)对于样本xxx,首先进行data augmentation(本文的三种augmentation分别为:随机裁剪并resize,color distortion以及Gaussian Blur),经过两种不同的操作得到xi~\widetilde{x_{i}}xi

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值