Fine-grained Image Recognition最近的一些进展[6][7]
Confusion[6]
作者都是流弊学校的。主要想法是交叉熵损失函数在训练有歧义或比较难以分类的图片时,会倾向于学习到图片的一些特有的特征来降低训练误差,对泛化可能没有帮助。作者提出了两种在交叉熵损失函数中增加confusion的办法,Pairwise Confusion(希望预测的logits差别不要太大,更确切的说,是希望不同类别学习到的表示不要区别太大)和Entropic Confusion(希望logits和随机瞎猜的区别不要过大)。目前版本的文章写的不是很清晰,直接看代码很简单:PyTorch和Caffe实现。注意,这里的Confusion本质是一种正则化,带来了新的weighting parameter。作者发现Confusion获得的准确度高于使用weight decay和DeCov。还可以与Dropout联合使用,在三个实验中都获得了最佳的测试准确率。
Look closer to see better[7]
是微软亚洲研究院梅涛研究员等人发表的论文,CVPR 2017大会的亮点之一,提出了一个新的循环注意力卷积神经网络,参见微软亚洲研究院CVPR 2017 Oral论文:逐层集中Attention的卷积模型。后面有必要再细看这篇吧。
---------------------
作者:Wayne2019
来源:优快云
原文:https://blog.youkuaiyun.com/Wayne2019/article/details/78441001
版权声明:本文为博主原创文章,转载请附上博文链接!
---------------------