EDSR
与残差网络不同,这里对其进行了改进。如下图所示:
去除了BN层,原文的解释是由于归一化特征之后,导致去除了这个网络范围的灵活性,并且减少了GPU的使用。原文的英文为:Since batch normalization layers normalize the features, they get rid of range flexibility from networks by normalizing the features, it is better to remove them. 补充一下,在知乎上贾杨清的解释是,补充一个直观的理解,BN在classification当中的效果较好,主要原因是因为classification对于scale不敏感。但是superresolution这样图片到图片的变换,per image的scale还是一个有效信息。类似的一个情形是style transfer,同样也是图片到图片的变换,Ulyanov et al.提出用instance normalization的方法,IN可以理解成为每个图片自己做BN,这样比BN能保留更多scale信息。更新的研究表明如果训练收敛不是问题的话,进一步去掉IN的效果也会更好。总的来说BN对于简化调参有好处(更容易收敛),但是并不一定真的适合所有应用。
首先提出了单比例模型
单尺度网络(single-scale SR network —— EDSR)结构
结构类似于 SRResNet ,但是模型在残