2019 ICME CCF B类会议
这篇文章 针对当前应用residual网络的模型中,参数太多,训练不够稳定,因此,提出distilling residual block像以往的一样,首先介绍下论文布局:
- Abstract
- Introduction
- Distilling with residual networt
- Network Architecture
- Residual Disting Group
- Residual Disting block
- Image Reconstruction
- Loss Function)
- Experimetn Result
- Implementation Details
- Datasets
- Comparision with state-of-the-arts
- Conclusion
通过以上的结构,能看出来,首先介绍整体框架:
其次,介绍残差group:
最后介绍,残差block,
所以,这里解释,input经过卷积层产生两个分支,一个与input相加啊,另外一个和相加后的结果cat,(结束)学好讲故事的能力
思考
参考资料:https://blog.youkuaiyun.com/u012193416/article/details/79479935
这篇文章,提出的block,最主要就是resnet和desnet区别,也就是特征层add还是cat问题,但是文章里面也没有详细说这个,查阅资料,是这样说的,add是feature特征量的增加,有利于分类,而dense是特征数的增加,至于哪个有利于超分辨率重建,也说不清,实际效果是王道!!!
2019/7/30