[SimCLR v2] Big Self-Supervised Models are Strong Semi-Supervised Learners

1、目的

        借助无监督预训练来提升半监督学习的效果

2、方法

        

        1)unsupervised/self-supervised pretrain

                -> task-agnostic

                -> big (deep and wide) neural network可以有效提升准确性

                -> improvements upon SimCLR

                        larger ResNet models;deeper but less wide

                        deeper(3-layer) non-linear network(projection head)

                        incorporate the memory mechanism from MoCo

        2)supervised fine-tuning

                fine-tune from the first layer of the MLP head

        3)self-training / knowledge distillation using unlabeled data

                -> no real labels are used

                        

                        

                -> 当labeled example数据量较大时,可以结合进loss计算中

                        

                -> encourage the student network to mimic the teacher network's label predictions

                -> fix teacher network, train (smaller) student network

                -> 大模型先self-distillation,再向小模型做knowledge distillation

3、结论

        1)半监督学习的可用label越少,越能从大模型中获益

        2)用于具体任务时,大模型不是必要的,因此可以transfer到小模型上

        3)用一个较深的projection head,可以提升半监督的结果

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值