Wide Activation for Efficient and Accurate Image Super-Resolution
Jiahui Yu,Yuchen Fan,Jianchao Yang,Ning Xu,Zhaowen Wang,Xinchao Wang,Thomas Huang
本文是NTRIE2018年超分辨率比赛的冠军。
主要贡献
- 论文提出在激活函数前with expand feature可以使更多信息通过,提升网络性能,基于此提出WDSR-A。
- 论文使用linear low-rank convolution作为基本的模块,提出WDSR-B。
- 论文发现weight normalization对SR问题有改进。
WDSR-A
论文发现如果直接增加激活函数前的通道数,在不引入更多参数的情况下,对网络性能的提升没有任何作用。于是论文为了保证复杂度不上升,同时还加宽激活函数前的通道数,提出了一种先使通道数变窄再加宽的方法,提出了WDSR-A。

WDSR-A的残差块结构如中间的图,和左边的图RB比较,可以看出它把第一个卷积层变窄,而把激活函数前面的卷积层变宽了。假设第一个卷积层的宽度为,激活函数前的卷积层宽度为
,在RB中

本文介绍了WDSR方法,该方法通过在激活函数前增加特征宽度来提升图像超分辨率的效率和准确性。WDSR-A和WDSR-B是提出的新模型,其中WDSR-A通过先收缩后扩张的卷积层设计来保持复杂度,而WDSR-B使用线性低秩卷积解决通道数问题。此外,论文还提出Weight Normalization(WN)替代BN,以解决超分辨率任务中BN的局限性。实验结果显示,WDSR方法在性能和计算效率方面表现出优势。
最低0.47元/天 解锁文章
6347

被折叠的 条评论
为什么被折叠?



