2019 中国电子科技大学
作者针对于 目前很多超分辨率文章,通过增大模型的深度或者宽度(利用残差模块),提高模型性能,作者认为,即使这样,residual block的短链接限制了模型的表达能力,因此作者提出了FC2NFC^2NFC2N模型,这个模型利用 short skip 和 global skip,另外,feature map 融合通过cat,而reidual net 是通过add。
这篇文章,也属于提出 block的文章,因此,先介绍论文布局:
-
Abstrack
-
Introduction
-
Related work
2.1.Image super-resolution with deep learning
2.2 Interlayer bypass connections -
Fully Channel-Concatenated Network
- weighted channel concatenation
- overall networj structure
- Concat group
- Training objective
- Implementation details
-
Experimental Results
- Settings
- Model analysis
- Weighted channel concatenation
- Comparision to residual baseline
- Learnable weighting factors
- Concat group and concat block
- Weighted channel concatenation
- Comparision with adcanced methods
- Quantitative ecaluation
- Visual evaluation
-
Conclusion
Method
文章提出 concat group和 concat block,其中 concat group由若干个 concat block组成,我们来看看网络结构:
可以看到每个CG都是 long skip,其实这个效果好也是可以理解的:我们把输入到输出这个路径看作一个信号流,那么,这行长连接,使得输入到输出之间的通路越多,因此,最后重建的时候,不仅能由浅层信号,也有深层信号,这也是作者文章的中心点
这张 图解释的是 concat block与其他文章的不同,另外(学习作者,讲故事)
谢谢作者!!!
2019.7.31