论文笔记:Efficient Multi-Stage Video Denoising with Recurrent Spatio-Temporal Fusion

华为 Noah's Ark Lab 提出的 EMVD 算法针对有限算力的终端设备,实现了有效的视频降噪。该算法通过可学习的可逆变换分解图像信息,并采用三级结构进行时域融合、空域降噪和时空精修,以减少噪声并保持图像细节。实验表明,EMVD 在较小的计算量下能达到较好的降噪效果,适合在实际设备上部署。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这是Huawei Noah‘s Ark Lab在CVPR2021上的文章。他们针对于终端设备算力有限的条件下,提出了一种有效的视频降噪算法EMVD,其主要特点在于

  1. 通过可学习的可逆变换,将图像的亮度和颜色信息,以及不同的频率信息进行分解,在变换域进行图像降噪处理;
  2. 使用了三级结构,包括时域融合(temporal fusion)、空域降噪(spatial denoising)、时空精修(spatio-temporal refinement)三个阶段,每级结构都有明确的任务和可解释性;
  3. 使用很小的参数和计算量就可以取得较好的效果;

Overview

降噪方法针对于RAW域图像,假设噪声模型是异质性高斯噪声,即由读出噪声和散粒噪声构成。

σ t 2 ( y t ) = a t y t + b t \sigma^2_t(y_t)=a_ty_t+b_t σt2(yt)=atyt+bt

在这种假设下,噪声参数 a t a_t at b t b_t bt只与给定的传感器和相机ISO参数有关,因而可以提前进行噪声标定获得噪声参数。

整个方法流程图如下图所示
在这里插入图片描述

Learnable Invertible Transforms

受YUV和小波变换的启发,可以将RAW图像的颜色信息和频率信息做分解,这种变换是线性且可逆的,可以通过设计为标准卷积操作来学习。

其中颜色变换可以设计为 1 × 1 1\times 1 1×1卷积,输入4通道(RGGB),输出4通道;通常颜色矩阵定义为

M = [ 0.5 0.5 0.5 0.5 − 0.5 0.5 0.5 − 0.5 0.65 0.2784 − 0.2784 − 0.65 − 0.2784 0.65 − 0.65 0.2784 ] = [ Y U V W ] M=\left[\begin{matrix}0.5&0.5&0.5&0.5\\ -0.5&0.5&0.5&-0.5\\ 0.65&0.2784&-0.2784&-0.65\\ -0.2784&0.65&-0.65&0.2784 \end{matrix}\right]=\left[\begin{matrix}Y\\U\\V\\W\end{matrix}\right] M=0.50.50.650.27840.50.50.27840.650.50.50.27840.650.50.50.650.2784=YUVW

在本文中使用该矩阵作为卷积初始化初始化。

频率变换可以像如Haar小波一样,设计为4个 n × n n\times n n×n的卷积。文章使用两个 1 × n 1\times n 1×n一维滤波器,包括一个低通滤波 ψ L \psi_L ψL和一个高通滤波 ψ H \psi_H ψH。两者相互组合的外积作为 n × n n\times n n×n的卷积核初始化。
在这里插入图片描述
为了保证学习到的正变换和逆变换是相互可逆的,在学习时加入了约束

L c = ∥ M ⋅ M ′ − I C ∥ F 2 L_c=\|M\cdot M'-I_C\|^2_F Lc=MMICF2 L f = ∥ ψ ⋅ ϕ − I 2 ∥ F 2 L_f=\|\psi\cdot \phi-I_2\|^2_F Lf=ψϕI2F2

其中, I c I_c Ic I 2 I_2 I2分别为秩为C和2的单位矩阵。

Fusion Stage

该阶段的目的是使用视频的时域相关特征来减小噪声同时不引入其他的伪纹理。因而,时域融合可以定义为

y ˉ t ( x ) = y ˉ t − 1 ( x ) γ ˉ t − 1 ( x ) + z t ( x ) γ t ( x ) \bar{y}_t(x)=\bar{y}_{t-1}(x)\bar{\gamma}_{t-1}(x)+z_t(x)\gamma_t(x) yˉt(x)=yˉt1(x)γˉt1(x)+zt(x)γt(x)

其中, γ \gamma γ是非负的凸权重,通道数为1,且满足 γ ˉ t − 1 ( x ) + γ t ( x ) = 1 \bar{\gamma}_{t-1}(x)+\gamma_t(x)=1 γˉt1(x)+γt(x)=1。在 t = 0 t=0 t=0时刻初始化 y ˉ 0 ≡ z 0 \bar{y}_0\equiv z_0 yˉ0z0
在这里插入图片描述
融合权重使用网络进行估计

{ γ t , γ ˉ t − 1 } = F C N N ( ∣ z L L ∣ t − y ˉ L L ∣ t − 1 ∣ , σ ^ t 2 ) \{\gamma_t,\bar{\gamma}_{t-1}\}=FCNN(|z_{LL|t}-\bar{y}_{LL|t-1}|,\hat{\sigma}^2_t) {γt,γˉt1}=FCNN(zLLtyˉLLt1,σ^t2)

其中, z L L ∣ t z_{LL|t} zLLt y ˉ L L ∣ t − 1 \bar{y}_{LL|t-1} yˉLLt1分别表示噪声输入和上一时刻融合帧的低通分量。 σ ^ t 2 = σ t 2 ( z L L ∣ t ) \hat{\sigma}^2_t=\sigma^2_t(z_{LL|t}) σ^t2=σt2(zLLt)表示输入帧的噪声方差,此处使用 z L L ∣ t z_{LL|t} zLLt代表 y t y_t yt来减小噪声对方差估计的影响。FCNN的输出层使用sigmoid函数作为激活函数。当使用多尺度时,低尺度的融合权重也被上采样作为额外的输入,正如方法流程图所示。

时域融合也可以解释为核预测网络的一种核为 1 × 1 1\times 1 1×1的特殊情况。因此时域融合的广义形式可以定义为:

y ˉ t ( x ) = y ˉ t − 1 ( x ) ⊛ k ˉ t − 1 ( x ) + z t ( x ) ⊛ k t ( x ) \bar{y}_t(x)=\bar{y}_{t-1}(x)\circledast\bar{k}_{t-1}(x)+z_t(x)\circledast k_t(x) yˉt(x)=yˉt1(x)kˉt1(x)+zt(x)kt(x)

其中 ⊛ \circledast 表示卷积操作, k k k表示应用于当前噪声帧大小为 p × p p\times p p×p的空间自适应核, k ˉ t − 1 \bar{k}_{t-1} kˉt1表示应用于前一帧的大小为 p ˉ × p ˉ \bar{p}\times\bar{p} pˉ×pˉ的核。

Denoising Stage

仅仅采用时域融合进行降噪是不充分的,因为图像中的运动区域不能被时域信息有效地补偿。因而,在时域融合之后进行空域降噪。

y ~ t = D C N N ( y ˉ t , z L L ∣ t , σ ˉ t 2 ) \tilde{y}_t=DCNN(\bar{y}_t,z_{LL|t},\bar{\sigma}^2_t) y~t=DCNN(yˉt,zLLt,σˉt2)

其中, σ t 2 ˉ \bar{\sigma^2_t} σt2ˉ是融合图像 y ˉ t \bar{y}_t yˉt的噪声方差,其不仅依赖于第 t t t帧的信号依赖方差,同时也依赖于融合的所有过去帧的累加效应。

σ ˉ t 2 ≡ σ t 2 ( y ˉ L L ∣ t ) = γ ˉ t − 1 2 σ t − 1 2 ( y ˉ L L ∣ t − 1 ) + γ t 2 σ t 2 ( z L L ∣ t ) \bar{\sigma}^2_t\equiv \sigma^2_t(\bar{y}_{LL|t})=\bar{\gamma}^2_{t-1}\sigma^2_{t-1}(\bar{y}_{LL|t-1})+\gamma^2_t\sigma^2_t(z_{LL|t}) σˉt2σt2(yˉLLt)=γˉt12σt12(yˉLLt1)+γt2σt2(zLLt)

其中,视频噪声在时域上认为是独立的,因而去掉了互相关项,且初始化条件为 σ t 2 ( y ˉ L L ∣ 0 ) ≡ σ t 2 ( Z L L ∣ 0 ) \sigma^2_t(\bar{y}_{LL|0})\equiv\sigma^2_t(Z_{LL|0}) σt2(yˉLL0)σt2(ZLL0)。既然 γ t ( x ) ≤ 1 \gamma_t(x)\le 1 γt(x)1,方差 σ ˉ t 2 \bar{\sigma}^2_t σˉt2随时间减小。

当使用多尺度时,低尺度的数据也被上采样作为额外的输入。

Refinement Stage

降噪可能会带来伪纹理和信息丢失,因而在进行降噪之后,加入了精修阶段提升降噪效果。精修阶段通过将融合阶段图像 y ˉ t \bar{y}_t yˉt(有高频纹理但存在噪声)中的高频信息叠加到降噪阶段输出图像 y ~ t \tilde{y}_t y~t(无噪声但过平滑)上,达到提升图像细节的效果。

y ^ t ( x ) = y ˉ t ( x ) ω ˉ t ( x ) + y ~ t ( x ) ω ~ t ( x ) \hat{y}_t(x)=\bar{y}_t(x)\bar{\omega}_t(x)+\tilde{y}_t(x)\tilde{\omega}_t(x) y^t(x)=yˉt(x)ωˉt(x)+y~t(x)ω~t(x)

其中,凸权重满足 ω ˉ t ( x ) + ω ~ t ( x ) = 1 \bar{\omega}_{t}(x)+\tilde{\omega}_t(x)=1 ωˉt(x)+ω~t(x)=1。精修权重也通过一个网络来进行计算

{ ω ~ t , ω ˉ t } = R C N N ( y ~ t , y ˉ t , σ ˉ t 2 ) \{\tilde{\omega}_t,\bar{\omega}_{t}\}=RCNN(\tilde{y}_t,\bar{y}_{t},\bar{\sigma}^2_t) {ω~t,ωˉt}=RCNN(y~t,yˉt,σˉt2)

同样,RCNN的输出层使用sigmoid函数作为激活函数。而且精修网络仅仅在最高的尺度上进行。
在这里插入图片描述

Experiment

数据集

CRVD Benchmark 其包括了一个利用SONY IMX385传感器拍摄的真实RAW视频数据集(CRVD)和一个合成数据集SRVD。所有视频有五个不同的ISO水平,ISO范围为[1600,25600]。文章使用完整的SRVD加上CRVD的1-6场景作为训练集,CRVD的7-11场景作为验证集。CRVD也包含了少量没有GT的户外噪声视频作为视觉质量比较。

IMX327 Dataset 使用SONY IMX327传感器拍摄了更多的图像。使用1042张高质量RAW图合成训练集,ISO从25600到96000取值。验证集包含了6个合成噪声视频,ISO分别为25600,51200和96000。测试集使用了6个在低照度场景(1l ux以下)下拍摄的真实噪声视频。

训练

在合成IMX327数据集时,通过合成随机运动轨迹从单帧图像上进行裁剪,从而模拟不同的位移。在生成长序列数据时,可以通过将每个序列进行时间反转叠加起来。训练损失函数定义为 L = L r + L c + L f L=L_r+L_c+L_f L=Lr+Lc+Lf。其中 L r L_r Lr定义为 L 1 L_1 L1损失。

消融实验

下表展示了不同的消融实验在CRVD上测试的结果。
在这里插入图片描述
实验说明了在降噪阶段分配更多的参数和算力是更有效的。下表展示了时域融合阶段使用不同核大小对结果的影响。
在这里插入图片描述
可以观察到对以前帧使用更大的核有利于运动补偿,从而得到更好的结果。

实验结果

在这里插入图片描述
左图展示了不同方法的运算开销和结果指标之间的相对关系,可以看出EMVD在比较小的计算量的条件下能取得更好的性能。右图展示了使用更多的输入帧对结果的影响。其他使用多帧输入的方法在经过初始的帧数增加后达到一个稳定的水平,而EMVD是使用递归的方法,因而积累长时间的信息更加有利。

下表展示了在Huawei P40 Pro手机芯片上,处理单精度720p视频序列的测试结果。可以看到EMVD可以实现接近30fps的处理速度。
在这里插入图片描述

Conclusion

本文提出了一种多阶段的视频降噪的方法EMVD。其最大的特点在于其可解释性和高效性。对于每一阶段的功能和效果都能给予解释和分析,整体的算法可以有效地应用于终端设备中,实现落地应用。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值