超分辨率重建之EDSR&MDSR

EDSR

与残差网络不同,这里对其进行了改进。如下图所示:

去除了BN层,原文的解释是由于归一化特征之后,导致去除了这个网络范围的灵活性,并且减少了GPU的使用。原文的英文为:Since batch normalization layers normalize the features, they get rid of range flexibility from networks by normalizing the features, it is better to remove them. 补充一下,在知乎上贾杨清的解释是,补充一个直观的理解,BN在classification当中的效果较好,主要原因是因为classification对于scale不敏感。但是superresolution这样图片到图片的变换,per image的scale还是一个有效信息。类似的一个情形是style transfer,同样也是图片到图片的变换,Ulyanov et al.提出用instance normalization的方法,IN可以理解成为每个图片自己做BN,这样比BN能保留更多scale信息。更新的研究表明如果训练收敛不是问题的话,进一步去掉IN的效果也会更好。总的来说BN对于简化调参有好处(更容易收敛),但是并不一定真的适合所有应用。

首先提出了单比例模型

单尺度网络(single-scale SR network —— EDSR)结构

结构类似于 SRResNet ,但是模型在残

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值