摘要:作者受到vgg的启发,搭建了一个20层的卷积神经网络。通过级联多个小的卷积核,更好的利用上下文信息。通常,越深的网络,网络的收敛速度就越慢。这里作者通过残差学习和大的学习率(这里学习率是SRCNN的一万倍),和可调节的梯度裁剪。残差学习是学习LR和HR之间的残差,大的学习率可以加快学习速度,梯度裁剪可以避免梯度爆炸
这篇文章,作者解决下面的问题:
1 对于大的尺度因子,小的感受野对于细节的恢复是不足够的。但是深层网络,拥有更大的感受野,利用更大的上下文信息。
2 残差学习。输入和输出是高度相关的。大的初始学习率。
3 通常超分算法的尺度是指定的。这里作者发现单个尺度模型对于多尺度超分是足够的。
提出的方法
作者使用双三次插值后的图像作为网络的输入。