[论文笔记] Enhanced Deep Residual Networks for Single Image Super-Resolution

[论文笔记] EDSR

一,简介

  1. 通过去除残差网络中不必要的组成模块,本文基于SRResNe提出了一个增强深超分辨网络(EDSR),提高了图像超分辨的效果,并赢得了NTIRE2017超分辨率重建挑战赛。
  2. 另外,作者还提出了一种多尺度模型,不同的尺度下有绝大部分参数都是共享的。该模型在处理每一个单尺度超分辨下都能有很好的效果。

二,EDSR网络

Residual blocks

  1. 思路来源

    一开始的ResNet被提出来是为了解决更高层次的计算机视觉问题,如图像分类和检测。但是,根据实验表明,直接对底层视觉问题套用ResNet架构,如超分辨率,得到的答案可能是次优的。

    所以,本文作者据此对SRResNet的残差块做出了一定的修改,并取得了性能的飞跃。

    修改如下:去除掉了SRResNet的批量标准化(batch normalization, BN)层

  2. 原因分析

    BN层的作用是对特征进行归一化,可以消除网络特征的范围灵活性。但是,对于SR问题来说,去除特征的范围灵活性会导致本来不多的特征信息再次减少,不利于产生HR

  3. 效果

    1. 大大提高了性能
    2. 与SRResNet相比,由于BN层的计算量和一个卷积层几乎持平,baseline模型没有批量标准化层,在训练期间可节省大约40%的内存使用量。 因此,可以在有限的计算资源下构建一个比传统ResNet结构具有更好性能的更大模型。

### 单图像超分辨率技术概述 单图像超分辨率(Single Image Super-Resolution, SISR)是一种旨在从低分辨率图像重建高分辨率图像的技术。近年来,基于深度学习的方法显著提升了SISR的效果。其中,“Transformed Self-Exemplars”方法通过利用图像内部的自相似性来增强细节恢复能力[^1]。 #### Transformed Self-Exemplars 技术的核心概念 Transformed Self-Exemplars 方法的主要思想是从输入图像本身提取特征作为参考样本,并通过对这些样本进行变换以适应不同的局部结构。这种方法避免了对外部训练数据集的高度依赖,从而减少了过拟合的风险并提高了泛化性能[^2]。 具体而言,该算法设计了一个端到端可训练框架,其中包括以下几个关键组件: 1. **Self-Similarity Mining**: 自动检测图像中的重复模式或纹理区域。 2. **Transformation Module**: 对挖掘出的自相似块应用几何和光度变换,使其能够匹配目标位置的需求。 3. **Fusion Mechanism**: 将多个转换后的样例融合在一起,形成最终的高分辨率预测结果。 此过程不仅保留了原始信号的重要特性,还有效增强了边缘锐利度以及颜色一致性[^3]。 #### 相关研究进展 除了上述提到的技术外,还有其他一些重要的工作也值得关注。例如,Dong等人提出的 SRCNN (Super Resolution Convolutional Neural Network),首次将卷积神经网络引入到了超级解析领域;Kim等人开发的 EDSR (Enhanced Deep Residual Networks for Single Image Super-Resolution) 则进一步优化了模型架构,在速度与质量之间取得了更好的平衡[^4]。 值得注意的是,尽管当前许多先进方案都采用了复杂的多尺度特征表示或者注意力机制,但 Transforming Self-examples 的独特之处在于它强调充分利用单一输入源内的信息资源,这使得其特别适合处理那些难以获取充足外部标注资料的应用场景[^5]。 ```python import torch.nn as nn class SimpleSRModel(nn.Module): def __init__(self): super(SimpleSRModel, self).__init__() self.conv1 = nn.Conv2d(3, 64, kernel_size=9, padding=4) self.relu = nn.ReLU() self.conv2 = nn.Conv2d(64, 32, kernel_size=1, padding=0) self.conv3 = nn.Conv2d(32, 3, kernel_size=5, padding=2) def forward(self, x): out = self.relu(self.conv1(x)) out = self.relu(self.conv2(out)) out = self.conv3(out) return out ``` 上面展示了一种简单的 SR 模型定义方式,实际项目中可能需要更复杂的设计才能达到理想效果。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值