WDSR:Wide Activation for Efficient and Accurate Image Super-Resolution

本文介绍了WDSR方法,该方法通过在激活函数前增加特征宽度来提升图像超分辨率的效率和准确性。WDSR-A和WDSR-B是提出的新模型,其中WDSR-A通过先收缩后扩张的卷积层设计来保持复杂度,而WDSR-B使用线性低秩卷积解决通道数问题。此外,论文还提出Weight Normalization(WN)替代BN,以解决超分辨率任务中BN的局限性。实验结果显示,WDSR方法在性能和计算效率方面表现出优势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Wide Activation for Efficient and Accurate Image Super-Resolution

Jiahui Yu,Yuchen Fan,Jianchao Yang,Ning Xu,Zhaowen Wang,Xinchao Wang,Thomas Huang

本文是NTRIE2018年超分辨率比赛的冠军。

主要贡献

  1. 论文提出在激活函数前with expand feature可以使更多信息通过,提升网络性能,基于此提出WDSR-A。
  2. 论文使用linear low-rank convolution作为基本的模块,提出WDSR-B。
  3. 论文发现weight normalization对SR问题有改进。

WDSR-A

论文发现如果直接增加激活函数前的通道数,在不引入更多参数的情况下,对网络性能的提升没有任何作用。于是论文为了保证复杂度不上升,同时还加宽激活函数前的通道数,提出了一种先使通道数变窄再加宽的方法,提出了WDSR-A。

 WDSR-A的残差块结构如中间的图,和左边的图RB比较,可以看出它把第一个卷积层变窄,而把激活函数前面的卷积层变宽了。假设第一个卷积层的宽度为w_{1},激活函数前的卷积层宽度为w_{2},在RB中

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值