深度学习基础——半监督

一篇国外大佬发文:

国外大佬发文:让AI自己给数据加标签,然后把损失函数用相应的方式来表达:把自动加标签的噪音和可能的偏差都考虑进去。

最近有两篇研究,都是这方面的例子:

一是MixMatch: A Holistic Approach to Semi-Supervised Learning

Arxiv码:1905.02249

二是Unsupervised Data Augmentatio

Arxiv码:1904.12848

其次,有一个根本上的变化,是人类已经意识到半监督学习会在机器学习隐私中,扮演一个很重要的角色了。

比如,PATE (Arxiv码:1610.05755) 方法里面定假设有监督的数据是私有的。那在教师-学生网络里,学生型就有强大的隐私保障,可以只用未标记的数据 (公开数据) 进行训练。

知识蒸馏 (Distilling Knowledge) 中,有些对隐私敏感的方法,成为了联合学习 (Federated Learning) 的一个关键推动力:

因为这样的方法,可以保障高效的分布式学习 (Distributed Learning) ,模型不需要访问用户数据,在数学上保障了隐私。

原文:The Quiet Semi-Supervised Revolution
https://towardsdatascience.com/the-quiet-semi-supervised-revolution-edec1e9ad8c

MIT的《半监督学习(Semi-Supervised Learning)》
http://www.acad.bg/ebook/ml/MITPress-%20SemiSupervised%20Learning.pdf


结语

总体来看,半监督机器学习无论是采用聚类、图传播、数据增强还是泛化学习,主要依据的理论基础都是labeled和unlabeled data在分布上的连续性和一致性,因此机器学习方法可以利用这点进行有效的结构化学习,增强模型的表征能力,进而很好地提高预测效果。虽然半监督机器学习已经取得了一些很好的结果,从近两年ICML、ICLR和NeurIPS等会议看,相关工作也越来越多,但是还远没有到CV中的ResNet和NLP中的BERT的水平,要实现100x Data真正发挥作用,还需要学术界和工业界共同努力。

半监督学习

半监督学习通常情况下,只有少量的有label数据,但是可以获得大量的无label数据,在这种情况下希望能够获得跟监督学习获得相似甚至相同的效果。半监督学习的历史其实已经也比较久远了,2009年Chapalle编著的Semi-Supervised Learning,就对其定义和原理做了详细介绍。在计算力随着深度学习的热潮快速发展的同时,大量的label贫困任务出现,于是半监督学习也越来越重要。

半监督学习近两年最有亮点的工作当属发表在EMNLP'2018的Phrase-Based & Neural Unsupervised Machine Translation,大幅提升了半监督机器机器翻译的SOTA。

翻译训练过程示意

在整个训练过程中,B)先对其两种语言的work级别翻译,然后C)针对两种语言分别学一个Language Model,获得语言分布,最后D)再根据语言分布反复使用Back-Translation在已知的少量句对上翻译获得最终模型。这种方案大幅提高了在对齐句对不多的语种之间的翻译质量,同时由于其novelty,获得了EMNLP'2018的Best Paper Award,初读此文时有一种眼前一亮的感觉。(尽管标题叫Unsupervised Machine Translation,但是实际上利用到了部分label数据,我更愿意将其归类为Semi-Supervised Machine Translation。)

最近Google的研究人员又提出来一种新的半监督训练方法MixMatch,这种方法号称是Holistic的,综合运用了:A)distribution average; B)temperature sharpening; C)MixUp with labeled and unlabeled data. 其训练过程如下:

这个方法在CIFAR-10上只有250个label时能将错误率从38%降到11%,令人印象深刻。『江山代有才人出』,另一波Google的研究人员提出了UDA,在我看来这种方法更为彻底,也更加End-to-End。UDA主要利用数据分布的连续性和一致性,在输入有扰动的情况下,输出应该保持稳定,于是对于unlabeled data增加了一个损失函数:

即有扰动和无扰动的unlabeled data的预估分布的KL距离应该非常小,同时数据扰动用尽可能贴近任务本身的方法去做,比如图像用AutoArgument,文本用上面提到的Back-Translation和Word Replacement。

UDA训练示意

UDA的效果在文本和图像上都得到了很好地验证,大幅降低标注数据不足情况下得错误率;更值得关注的一点是,即便在ImageNet这种标注数据已经非常多的情况下,再使用UDA依然能带来效果的提升,说明UDA在数据分布拟合上具有很好地通用性。


上海交通大学屠恩美:

半监督深度学习方法可分为三类:无监督特征学习类,正则化约束类,生成式对抗网络类。

https://mp.weixin.qq.com/s?__biz=MzU2OTA0NzE2NA==&mid=2247511810&idx=1&sn=9bcabdd7354ed63a32d59d26f112e7fc&chksm=fc864e11cbf1c707042b523afc4e832fb783e621c42716a0395dfced15204866807f965a8ebc&mpshare=1&scene=1&srcid=0819du8Wl3EdBPOfFa7knRfI&sharer_sharetime=1566178543033&sharer_shareid=7ca0cc2a76c8b61bd0545235798d3cdb&pass_ticket=OgwsAbhsuj6eU0kSRkJx3XUETNAgABBaY9BFI3k9tRUFqie4hR%2BpbgN%2B12vKybnj#rd

 




半监督学习微信文章:

谷歌大佬提出的两个文章(MixMatch和UDA),但引用量好像只有十几:https://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&mid=2652045372&idx=4&sn=780cb3cb33f7e30ef9de59d7ca1b6177&chksm=f12074cdc657fddb7fff685107b70883d40c42d43e2665a938599d524ebec1f11da7122b90a8&mpshare=1&scene=1&srcid=0819MS3uVEjQlRh1Suq52FIH&sharer_sharetime=1566178886036&sharer_shareid=7ca0cc2a76c8b61bd0545235798d3cdb&pass_ticket=OgwsAbhsuj6eU0kSRkJx3XUETNAgABBaY9BFI3k9tRUFqie4hR%2BpbgN%2B12vKybnj#rd

伪标签:https://mp.weixin.qq.com/s?__biz=MzI5Njk3NDYzNQ==&mid=2247483777&idx=1&sn=275f9e7b85379aa675a7ffb9cfc6a38f&chksm=ecbd61c5dbcae8d3e5a9ea6b9d363f310a45df4b4cf3a03a0d9823360b9abb26ee98d0877595&mpshare=1&scene=1&srcid=0819OyW28K2oLUIgHT8bEvEz&sharer_sharetime=1566179066598&sharer_shareid=7ca0cc2a76c8b61bd0545235798d3cdb&pass_ticket=OgwsAbhsuj6eU0kSRkJx3XUETNAgABBaY9BFI3k9tRUFqie4hR%2BpbgN%2B12vKybnj#rd

半监督入门(但这篇文章好像只用了一种方法,置后再看):https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650735119&idx=2&sn=fdf4e8ba0874e6043c7afc0c13b4b52d&chksm=871ac671b06d4f6703b3d06dd2fa3fd6e8899c046cedc2470982226dda21c64566efc08613d7&mpshare=1&scene=1&srcid=0819spoSa3u807DQPFpy8k8I&sharer_sharetime=1566179021318&sharer_shareid=7ca0cc2a76c8b61bd0545235798d3cdb&pass_ticket=OgwsAbhsuj6eU0kSRkJx3XUETNAgABBaY9BFI3k9tRUFqie4hR%2BpbgN%2B12vKybnj#rd

传统鼎盛半监督SVM:https://mp.weixin.qq.com/s?__biz=MzIxNzc1NDgzMw==&mid=2247484360&idx=1&sn=b7d3d03985ccd2f5e24d61966993c295&chksm=97f5be76a08237607c6a93acb0ea11e9ca2f871f61a972286ffcbb53bf04b6165f448b3a2267&mpshare=1&scene=1&srcid=0819cTT8TvCzEelGr2X2ge0r&sharer_sharetime=1566178721015&sharer_shareid=7ca0cc2a76c8b61bd0545235798d3cdb&pass_ticket=OgwsAbhsuj6eU0kSRkJx3XUETNAgABBaY9BFI3k9tRUFqie4hR%2BpbgN%2B12vKybnj#rd

半监督的对抗生成网络:https://mp.weixin.qq.com/s?__biz=MzI3ODkxODU3Mg==&mid=2247487318&idx=2&sn=f1462083c0a3e1de390651fca247452c&chksm=eb4eeb95dc396283c933c4215aa74556b0498355c332aa8998a57389eab456ceec8ce7daf89b&mpshare=1&scene=1&srcid=08191gk0Zo2GJ8g9o1SLVj00&sharer_sharetime=1566178817299&sharer_shareid=7ca0cc2a76c8b61bd0545235798d3cdb&pass_ticket=OgwsAbhsuj6eU0kSRkJx3XUETNAgABBaY9BFI3k9tRUFqie4hR%2BpbgN%2B12vKybnj#rd

一篇综述:https://mp.weixin.qq.com/s?__biz=MzU1NDA4NjU2MA==&mid=2247496111&idx=2&sn=e3edf565c913c63dd20c7962ac37cf16&chksm=fbea4860cc9dc1765a0013a0efd37b5c4b479a0e43acb7908484b879cc8d0241ee6efe60e34f&mpshare=1&scene=1&srcid=0819TGOds5YuyBqZkIdFbISu&sharer_sharetime=1566179151626&sharer_shareid=7ca0cc2a76c8b61bd0545235798d3cdb&pass_ticket=OgwsAbhsuj6eU0kSRkJx3XUETNAgABBaY9BFI3k9tRUFqie4hR%2BpbgN%2B12vKybnj#rd

Auto半监督:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650752852&idx=6&sn=45d97ad40b10b88ce19a8c7093bce78c&chksm=871a832ab06d0a3c5a84661a9f3176601cc72ba466bf4bf3efb919cc0749a8018c4a6e8d79d7&mpshare=1&scene=1&srcid=0819xwX8O9rkPPZ7HSy3gGAR&sharer_sharetime=1566179182635&sharer_shareid=7ca0cc2a76c8b61bd0545235798d3cdb&pass_ticket=OgwsAbhsuj6eU0kSRkJx3XUETNAgABBaY9BFI3k9tRUFqie4hR%2BpbgN%2B12vKybnj#rd

卷积图网络半监督:https://mp.weixin.qq.com/s?__biz=Mzg4MTEyMDk4Mg==&mid=2247485159&idx=1&sn=c45c4e6b6d25ac3dfe7917ba792bb92c&chksm=cf6b855ef81c0c482cfb99553713cb872d945e40de5b277bf3d5f6faec5cbb97c81c6163e3c3&mpshare=1&scene=1&srcid=0819FtWVyFYTaDv0tzwpNsa4&sharer_sharetime=1566179265294&sharer_shareid=7ca0cc2a76c8b61bd0545235798d3cdb&pass_ticket=OgwsAbhsuj6eU0kSRkJx3XUETNAgABBaY9BFI3k9tRUFqie4hR%2BpbgN%2B12vKybnj#rd

半监督teacher student架构(两次提到):https://mp.weixin.qq.com/s?__biz=MzI0ODcxODk5OA==&mid=2247504855&idx=3&sn=e945a41377f7c672de82b9a574512513&chksm=e99ee02edee96938a3eee43190d552771d1a6c65d27abadfe6ba492017a445e914d306b3a587&mpshare=1&scene=1&srcid=0819fcRD4zXJE0LKtNPtI9cw&sharer_sharetime=1566179316075&sharer_shareid=7ca0cc2a76c8b61bd0545235798d3cdb&pass_ticket=OgwsAbhsuj6eU0kSRkJx3XUETNAgABBaY9BFI3k9tRUFqie4hR%2BpbgN%2B12vKybnj#rd

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值