超分算法之SRCNN

在这里插入图片描述

这篇文章是2014年的一篇论文,其主要意义在于作者推出的SRCNN是深度学习在超分上开篇之作!SRCNN证明了深度学习在超分领域的应用可以超越传统的插值等办法取得较高的表现力。

参考目录:
深度学习图像超分辨率开山之作SRCNN(一)原理分析
深度学习端到端超分辨率方法发展历程

1 SRCNN简介

  1. 作者推出了一种基于SISR的超分方法。这种方法基于深度学习,旨在实现一种端对端的网络模型——SRCNN,其用于将低分辨率的图像转换为高分辨图像。作者指出,SRCNN在当时的数据集下达到了SOAT的水平。

  2. SRCNN具有结构简单且低失真度的特点:在这里插入图片描述如上图所示,只需要一定的训练回合,SRCNN就可以超过传统的超分方法。

  3. 在一定数量的卷积层结构下,SRCNN可以达到fast-training。

  4. 实验表明,在一定范围内,越大的数据集和较大的网络模型可以提升SRCNN对图像的重建效果。

2 SRCNN模型结构

在这里插入图片描述

首先说明以下符号的含义:

  1. Y Y Y:输入图像经过预处理(双三次插值)得到的图像,我们仍将 Y Y Y当作是低分辨率图像,但它的size要比输入图像要大。
  2. F ( Y ) F(Y) F(Y):网络最后输出的图像,我们的目标就是通过优化 F ( Y ) F(Y) F(Y)和Ground-Truth之间的loss来学会这个函数 F ( ⋅ ) F(\cdot) F()
  3. X X X:高分辨率图像,即Ground-Truth,它和 Y Y Y的size是相同的。

如上图所示是SRCNN的网络模型,其分为三部分,分别是:
①:Patch extraction and representation(其实就是图像特征提取层)。通过CNN将图像 Y Y Y的特征提取出来存到向量中,这个向量里包含了多张feature map,即一张图所含的一些特征。
②:非线性映射层。将上一层的feature map进一步做非线性映射处理,使得网络深度加大,更有利于学到东西。
③:网络重建层。重建用于将feature map进行还原成高分辨率图像 F ( Y ) F(Y) F(Y),其与 X X X做loss并通过反传来学习整个模型的参数。

下面分别详细展开论述上面三个层。

特征提取层:
特征提取层用了一层的CNN以及ReLU去将图像 Y Y Y变成一堆堆向量,即feature map:
F 1 ( Y ) = m a x ( 0 , W 1 ⋅ Y + B 1 ) . F_1(Y) = max(0, W_1\cdot Y+B_1). F1(Y)=max(0,W1Y+B1).其中 W 1 、 B 1 W_1、B_1 W1B1是滤波器(卷积核)的参数,这是一个 f 1 × f 1 f_1\times f_1 f1×f1大小的窗口,通道数为 Y Y Y的通道 c c c,一共有 n 1 n_1 n1个滤波器。
Note:

  1. 经过这一层,图像 Y Y Y的大小以及通道数都会发生改变。
  2. m a x ( 0 , x ) max(0,x) max(0,x)表示ReLU层。

非线性映射层:
这一层就是将上一层的feature map再用卷积核过滤一次以及ReLU层进行激活,也可以理解为为了加深网络从而更好的学习函数 F ( ⋅ ) F(\cdot) F()
F 2 ( Y ) = m a x ( 0 , W 2 ⋅ F 1 ( X ) + B 2 ) . F_2(Y) = max(0, W_2\cdot F_1(X)+B_2). F2(Y)=max(0,W2F1(X)+B2).大致结构和特征提取层一样,不一样的是这一层只是为了增加网络模型的非线性程度,所以只需采用 1 × 1 1\times 1 1×1的卷积核就可以了,其通道数为 n 1 n_1 n1,一共有 n 2 n_2 n2个滤波器。当然可以继续增加非线性层,但是本文旨在推出一种通用性SR框架,所以会选择最简的网络模型

图像重建层:
借鉴于传统超分的纯插值办法——对图像局部进行平均化的思想,其本质就是乘加结合的方式,因此作者决定采用卷积的方式(也是乘加结合的方式)去做重建:
F ( Y ) = W 3 ⋅ F 2 ( Y ) + B 3 . F(Y) = W_3\cdot F_2(Y) + B_3. F(Y)=W3F2(Y)+B3.这一层是不需要ReLU层的,且卷积核的大小为 n 2 × c × f 3 × f 3 n_2\times c \times f_3 \times f_3 n2×c×f3×f3.
Note:

  1. 也可以从另一个角度来考虑,经过前面的卷积之后,图像的size变小了,因此需要上采样过程来恢复图像,势必需要一个反卷积来做这件事,而反卷积本质也是卷积的一种。

3 Loss function:

设batchsize为 n n n,SRCNN网络参数集为 Θ = { W 1 , W 2 , W 3 , B 1 , B 2 , B 3 } \Theta = \{W_1, W_2, W_3, B_1, B_2, B_3\} Θ={W1,W2,W3,B1,B2,B3},则Loss function可定义为:
L ( Θ ) = 1 n ∑ i = 1 n ∣ ∣ F ( Y i ; Θ ) − X i ∣ ∣ 2 . L(\Theta) = \frac{1}{n}\sum^n_{i=1}||F(Y_i;\Theta) - X_i||^2. L(Θ)=n1i=1nF(Yi;Θ)Xi2.Note:

  1. 选择MSE作为损失函数的一个重要原因是MSE的格式和我们图像失真评价指标PSNR很像,因此可以理解为SRCNN是直接冲着提升PSNR去的,从而让高分辨率的图像有较小的失真度。
  2. MSE就是迫使网络将我们恢复的SR图像向着Ground-Truth(标签 X X X)的方向靠近。

4 实验

4.1 setup

实验的一些比较重要的配置如下:

  1. Training-data涉及91张图片。Set5数据集涉及5张图片用于up-scale-factor={2,3,4}的验证与测试;Set14数据集涉及14张图片用于up-scale-factor=3的验证与测试。
  2. 实验的一些参数设置: f 1 = 9 , f 3 = 5 , n 1 = 64 , n 2 = 32 f_1=9,f_3=5,n_1=64,n_2=32 f1=9,f3=5,n1=64,n2=32.
  3. Ground-Truth的大小是 32 × 32 32\times 32 32×32
  4. 卷积核的参数初始化来自于: w i 0 ∼ N ( 0 , 0.001 ) w_i^0\sim\mathcal{N}(0, 0.001) wi0N(0,0.001)
  5. SRCNN一共3层网络,前两层配置的学习率为 1 0 − 4 10^{-4} 104,最后一层的学习率配置为 1 0 − 5 10^{-5} 105,作者指出这种让最后一层较小的学习率有利于网络收敛。

4.2 实验结果

4.2.1 performance

在这里插入图片描述从上图看出SRCNN的PSNR在大部分图片中都取得了最佳的值!此外,所消耗的时间也是最少的。

4.2.2 runtime

在这里插入图片描述从上图可以看出SRCNN有最少的runtime!

5 进一步研究

5.1 滤波器学习情况

在这里插入图片描述上图是特征提取层滤波器的学习可视化图,在91张图片的训练结果,其中up-scale-factor=2。
图像a、f:类似于高斯分布。
图像b、c、d:类似于边缘检测。
图像e:类似于纹理检测。
其余:一些坏死的卷积核参数。

5.2 ImageNet学习

作者这一节旨在探究数据集的大小对performance的影响。

  1. 采用ILSVRC 2013的ImageNet数据集和91张图片这两个训练集做对比训练。
  2. 在Set5数据上做测试,up-scale-factor=3。

实验结果如下:
在这里插入图片描述从图中可知,大的数据集对表现力的提升是有帮助的(虽然我们都知道,但是作者还是做个实验来证明下)。

5.3 滤波器数量

作者研究滤波器数量对PSNR的提升影响,设置了3组实验,结果如下:
在这里插入图片描述
实验结果表明卷积核的数量对表现力是有提升的,但是数量的增加也带来了runtime的增加,如果你想获取快速的重建效果,建议还是取小数量的卷积核更好。

5.4 滤波器大小

作者研究滤波器size对PSNR的提升影响,进行了2组实验,分别是:
f 1 = 9 , f 3 = 5 f_1=9,f_3=5 f1=9,f3=5 f 1 = 11 , f 3 = 7 f_1=11,f_3=7 f1=11,f3=7
从实验结果来看,较大的卷积核可以提取更好的特征信息,但是也带来了runtime的上升,因此实际中我们需要根据实际情况进行trade-off。

6 效果展示

在这里插入图片描述

7 总结

  1. 本文作为SR在深度学习领域的开篇之作,提出了一种通用性框架SRCNN,将输入图像进行Bicubic插值预处理,然后特征提取,非线性映射,最后进行重建;重建后的图像与Ground-Truth做loss来迫使网络学习到如何从 L R → H R LR \to HR LRHR的知识。
  2. 选用深度学习常用的MSE作为Loss function,因为MSE与PSNR有着相似的表达式。
  3. SRCNN在PSNR和runtime上都表现不俗,超越了当时的SOAT,表征了这种框架的实用性。
  4. 作者做了一系列实验,其中包括可视化乐特征提取到的向量是怎么样的;大的数据集对表现力的提升是有帮助的;卷积核的数量的增加对表现力是有提升的,但是数量的增加也带来了runtime的增加;较大的卷积核可以提取更好的特征信息,但是也带来了runtime的上升。
<think>好的,我现在需要回答用户关于超分算法实现原理和超分辨率重建算法的问题。首先,我得理解用户的需求。用户提到了参考的四个引用,涉及不同的算法SRCNN、POCS以及深度学习方法。用户可能希望了解这些算法的基本原理,以及如何实现它们。 首先,我应该明确超分辨率重建的基本概念。超分辨率重建是通过算法从低分辨率图像恢复高分辨率图像的过程。这可以分为传统方法和基于深度学习的方法。传统方法可能包括插值、基于重建的方法如POCS,以及基于学习的方法如稀疏编码。而深度学习方法如SRCNN、ESPCN、EDSR等则是近年来主流的方法。 接下来,我需要整理每个引用中的信息。引用1提到深度学习模型在超分中的应用,提高了质量但需要大量资源。引用2详细介绍了SRCNN算法,说明其是端到端的CNN方法。引用3讨论了POCS算法,使用迭代和约束集来重建图像。引用4指出深度学习方法的挑战,如模型复杂度和计算资源需求。 用户的问题包括实现原理和算法细节,所以需要分点解释传统方法和深度学习方法,并举例说明几个关键算法SRCNN和POCS。同时,要结合引用中的信息,比如SRCNN的结构、POCS的迭代过程,以及深度学习方法的优缺点。 需要注意回答的结构要清晰,分步骤解释,并且符合用户要求的格式,如使用中文,数学公式用$...$,独立公式用$$...$$。此外,要生成相关问题,并正确添加引用标识。 现在需要确保覆盖以下几点: 1. 超分辨率重建的定义和应用场景。 2. 传统算法:插值法、POCS算法(引用3)、逆滤波(引用1)。 3. 深度学习方法:SRCNN(引用2、4)、其他模型如ESPCN、EDSR。 4. 实现原理,包括数学公式和网络结构。 5. 优缺点比较,引用中的挑战如计算资源(引用1、4)、PSNR评估(引用3)。 6. 提供代码示例,可能来自引用2或4。 7. 生成相关问题。 需要检查是否有遗漏的引用内容,并正确标注引用标识。例如,在讨论POCS算法时引用[^3],SRCNN引用[^2][^4],深度学习挑战引用[^1]。 然后,编写回答部分,确保每个算法部分都有对应的原理和公式。例如,SRCNN的三层卷积结构可以用数学公式表示,POCS的迭代公式使用$$...$$。代码部分选取SRCNN的简单示例,如引用2中的MATLAB或引用4的Python代码,但用户提供的引用中没有具体代码,可能需要用伪代码或结构描述。 最后,生成相关问题,涵盖传统与深度方法、评估指标、优化方向、计算资源挑战等,参考用户提供的示例问题的结构。 需要确保所有引用都正确标注,没有格式错误,数学公式正确使用LaTeX,如$y = W_1 * x + b_1$,以及独立公式: $$ x^{(k+1)} = P_C \left( x^{(k)} + \lambda (y - H x^{(k)}) \right) $$ 总结后,组织成用户要求的层次结构,分步骤说明,保持语言口语化但专业,避免使用Markdown格式,仅使用换行和段落分隔。</think>### 超分辨率重建算法实现原理 超分辨率重建(Super-Resolution, SR)是通过算法从低分辨率(LR)图像恢复高分辨率(HR)图像的过程,核心原理包括**插值优化**、**频域重建**和**深度学习映射**。以下是关键实现方法: --- #### 一、传统算法 1. **插值法** 通过双线性或双三次插值直接放大图像,但会导致模糊。例如,双三次插值公式为: $$f(x,y) = \sum_{i=0}^3 \sum_{j=0}^3 a_{ij} x^i y^j$$ 其局限性在于无法恢复高频细节。 2. **基于重建的方法** - **POCS算法(凸集投影)** 通过迭代约束(如平滑性、非负性)逼近真实图像。迭代公式为: $$x^{(k+1)} = P_C \left( x^{(k)} + \lambda (y - H x^{(k)}) \right)$$ 其中$H$为退化模型,$P_C$为投影到约束集的操作。实验显示其PSNR提升显著。 - **逆滤波复原** 通过频域逆滤波补偿退化,但易受噪声放大影响。 --- #### 二、深度学习方法 1. **SRCNN超分辨率卷积神经网络)** - **结构**:三层卷积网络(特征提取→非线性映射→重建)。数学表达为: $$F(y) = W_2 * \sigma(W_1 * y + b_1) + b_2$$ 其中$W_i$为卷积核,$\sigma$为ReLU激活函数[^2]。 - **优势**:端到端映射,无需人工设计特征,重建质量高。 2. **ESPCN(高效子像素卷积)** 在LR空间提取特征,最后通过子像素卷积层放大图像,减少计算量。 3. **EDSR(增强深度残差网络)** 去除冗余模块(如批归一化),通过残差学习提升性能,但参数量较大。 --- #### 三、关键挑战与优化 1. **计算资源**:深度模型需大量GPU资源训练。 2. **纹理细节**:像素级损失易导致图像过平滑,需结合对抗损失(如GAN)。 3. **实时性**:轻量化设计(如MobileNet)可部署到移动设备。 --- #### 四、代码示例(SRCNN简化版) ```python import tensorflow as tf def srcnn_model(input_shape=(32, 32, 1)): model = tf.keras.Sequential([ tf.keras.layers.Conv2D(64, 9, activation='relu', padding='same', input_shape=input_shape), tf.keras.layers.Conv2D(32, 1, activation='relu', padding='same'), tf.keras.layers.Conv2D(1, 5, padding='same') ]) model.compile(optimizer='adam', loss='mse') return model ``` ---
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值