论文笔记15:Hyperspectral Image Denoising via Noise-Adjusted Iterative Low-Rank Matrix Approximation

引言

HSI去噪方法:PCA、NAPCs、INAPCA、PCA with wavelet、multivariate multiresolution PCA、RPCA;PARAFAC、VBM3D、BM4D;基于PDE的方法(如SSAHTV),基于小波分析的方法(如HSSNR),小波+PCA、小波+多向Wiener滤波、小波+FORP等。

方法

HSI表示: Y = X + N \mathbf{Y}=\mathbf{X}+\mathbf{N} Y=X+N,其中 Y = [ Y 1 , Y 2 , ⋯   , Y p ] ∈ R M N × p \mathbf{Y}=[\mathbf{Y}_1,\mathbf{Y}_2,\cdots,\mathbf{Y}_p]\in\mathbb{R}^{MN\times p} Y=[Y1,Y2,,Yp]RMN×p为Casorati矩阵(一种矩阵其列包含HSI的矢量化波段),三维情形就是 u = f + N u=f+\mathcal{N} u=f+N W = d i a g ( σ 1 2 , σ 2 2 , ⋯   , σ p 2 ) W=diag(\sigma_1^2,\sigma_2^2,\cdots,\sigma_p^2) W=diag(σ12,σ22,,σp2)为噪声协方差矩阵, σ i \sigma_i σi为第 i i i个波段的噪声标准差。

Patchwise LRMA Denoising

从线性光谱混合模型的角度来看,每个光谱特征(X的行(列?))可以由少量纯光谱端元的线性组合来表示。这启发我们利用LRMA方法来解决去噪问题 min ⁡ X ∥ Y − X ∥ F 2 ,  s.t  rank ⁡ ( X ) ≤ r \min _{\mathbf{X}}\|\mathbf{Y}-\mathbf{X}\|_{F}^{2}, \quad \text { s.t } \quad \operatorname{rank}(\mathbf{X}) \leq r XminYXF2, s.t rank(X)r

由于 M N ≫ p MN\gg p MNp,Y通常是一个非常薄(thin)的矩阵。在这种情况下,LRMA去噪后的图像可能会导致模糊细节丢失。因此,我们以空间拼接的方式分析HSI,而不是全局分析。

R b R_b Rb是一个二进制算子,它从一个矩阵中提取m行n列,该矩阵对应于一个m×n的空间块(patch),由每个HSI波段内的索引b指定, R b ∗ R_b^* Rb为其逆过程。PLRMA去噪过程可定义为 PLRMA ⁡ r ( u ) = ( ∑ b ∈ Ω R b ∗ LRMA ⁡ r ( R b u ) ) ⋅ / ( ∑ b ∈ Ω R b ∗ R b ) \operatorname{PLRMA}_{r}(u)=\left(\sum_{b \in \Omega} R_{b}^{*} \operatorname{LRMA}_{r}\left(R_{b} u\right)\right) \cdot /\left(\sum_{b \in \Omega} R_{b}^{*} R_{b}\right) PLRMAr(u)=(bΩRbLRMAr(Rbu))/(bΩRbRb)

其中 r r r是所有Casorati矩阵的上界(下面详细讨论), Ω \Omega Ω表示平铺(tiles)图像域的重叠块集合。上式对从HSI数据 u u u中提取的矩阵族执行LRMA运算,并累计(accumulates)结果的加权和。

在这里插入图片描述

Noise-Adjusted Iteration Framework

迭代正则化的基本思想是将每次迭代的输出去噪图像加回到输入噪声图像中作为下一次迭代的输入 u k + 1 = ( 1 − δ ) f k + δ u k u^{k+1}=(1-\delta) f^{k}+\delta u^{k} uk+1=(1δ)fk+δuk

其中 δ ∈ [ 0 , 1 ] \delta\in[0,1] δ[0,1]为松弛(relaxation)参数, u k u^k uk表示第 k k k次迭代的输入图像, f k f^k fk表示在 u k u^k uk上进行PLRMA处理后的输出图像。由于不同的波段有不同的噪声水平,扩展了迭代正则化的思想 u i k + 1 = ( 1 − δ i ) f i k + δ i u i k i = 1 , 2 , ⋯   , p . ( 1 ) u_i^{k+1}=(1-\delta_i) f_i^{k}+\delta_i u_i^{k}\quad i=1,2,\cdots,p.\quad(1) uik+1=(1δi)fik+δiuiki=1,2,,p.(1)

其中 δ i = e − c ( W ( i , i ) ) \delta_i=e^{-c(\mathbf{W}(i,i))} δi=ec(W(i,i)) W ( i , i ) \mathbf{W}(i,i) W(i,i)是原始噪声图像的第 i i i个波段的噪声方差,c是衰减参数,需要预先定义。

(这段比较难理解)随着迭代的开始,只有强信号(具有大的奇异值)能够经受住LRMA处理,并有助于初始的无噪声HSI f ^ \hat{f} f^。然而,部分恢复的信号将通过(1)反馈到输入信号,以降低噪声的估计。反过来,可以识别较弱的信号并将其添加到信号估计中。此外,当输入图像的第 i i i个波段中的噪声水平较低时,第 i i i个波段中较少恢复的信号将被加回到输入信号,反之亦然。这种策略有助于保护高信噪比波段中的较弱信号,这将反馈到低信噪比波段的性能改善。随着迭代的进行,通常观察到估计的噪声方差单调减小。同时,HSI结构逐渐恢复,直至收敛。

在这里插入图片描述
疑问:如果是第6步更新 f k + 1 f^{k+1} fk+1那么第4步的 f k + 1 f^{k+1} fk+1是怎么来的?是否要将第6步改成 f k + 2 f^{k+2} fk+2?
其中
(5): u i k + 1 = ( 1 − δ i ) f i k + δ i u i k i = 1 , 2 , ⋯   , p u_i^{k+1}=(1-\delta_i) f_i^{k}+\delta_i u_i^{k}\quad i=1,2,\cdots,p uik+1=(1δi)fik+δiuiki=1,2,,p
(6): δ i = e − c ( W ( i , i ) ) \delta_i=e^{-c(\mathbf{W}(i,i))} δi=ec(W(i,i)) W ( i , i ) \mathbf{W}(i,i) W(i,i)
(3): PLRMA ⁡ r ( u ) = ( ∑ b ∈ Ω R b ∗ LRMA ⁡ r ( R b u ) ) ⋅ / ( ∑ b ∈ Ω R b ∗ R b ) \operatorname{PLRMA}_{r}(u)=\left(\sum_{b \in \Omega} R_{b}^{*} \operatorname{LRMA}_{r}\left(R_{b} u\right)\right) \cdot /\left(\sum_{b \in \Omega} R_{b}^{*} R_{b}\right) PLRMAr(u)=(bΩRbLRMAr(Rbu))/(bΩRbRb)

RSVD Algorithm for LRMA

主要的优化任务是求解 min ⁡ X ∥ Y − X ∥ F 2 ,  s.t  rank ⁡ ( X ) ≤ r \min _{\mathbf{X}}\|\mathbf{Y}-\mathbf{X}\|_{F}^{2}, \quad \text { s.t } \operatorname{rank}(\mathbf{X}) \leq r minXYXF2, s.t rank(X)r,奇异值阈值法(SVT)将其转化为松弛(slack)问题: min ⁡ X ∥ Y − X ∥ F 2 + λ ∥ X ∥ ∗ \min _{\mathbf{X}}\|\mathbf{Y}-\mathbf{X}\|_{F}^{2}+\lambda\Vert \mathbf{X}\Vert_{*} XminYXF2+λX

其中 ∥ X ∥ ∗ \Vert\mathbf{X}\Vert_{*} X X \mathbf{X} X的所有奇异值之和,SURE提供了一种选择上式中正则化参数的有原则的自动方法。然而,SVT(SVD计算)的主要步骤是耗时的,包含 O ( M N p 2 ) O(MNp^2) O(MNp2)浮点运算(flops)。由于每个波段的噪声水平不同,输入噪声图像Y应进行预白化(prewhitened): Y ~ = Y W − 1 / 2 \tilde{\mathbf{Y}} = \mathbf{Y}\mathbf{W}^{-1/2} Y~=YW1/2. 但是,这种方法也会改变每个波段的幅度值(magnitude value)。

RSVD:
Finding structure with randomness: Probabilistic algorithms for constructing approximate matrix decompositions

RSVD算法通过使用随机投影探索近似矩阵分解,将过程分为两个阶段。在第一阶段,随机抽样用于获得一个简化(reduced)矩阵,其范围近似于Y的范围,在第二阶段,简化的矩阵被分解。这个过程基于以下两个事实:

事实1:对于秩为 r r r的矩阵 Y ∈ R M N × p \mathbf{Y}\in\mathbb{R}^{MN\times p} YRMN×p Y \mathbf{Y} Y的范围(由 Y \mathbf{Y} Y的列组成的子空间)可以定义为 Ω = Y G \mathbf{\Omega}=\mathbf{Y}\mathbf{G} Ω=YG,其中 G ∈ R p × r \mathbf{G}\in\mathbb{R}^{p\times r} GRp×r为高斯随机矩阵。

事实2:如果 Q ∈ R M N × r \mathbf{Q}\in\mathbb{R}^{MN\times r} QRMN×r为一个具有跨越(span) Y \mathbf{Y} Y的范围(range)的正交列的矩阵,则
∥ Y − Q Q ∗ Y ∥ ≈ min ⁡ r a n k ( X ) ≤ r ∥ Y − X ∥ \left\|\mathbf{Y}-\mathbf{Q Q}^{*} \mathbf{Y}\right\| \approx \min _{r a n k(\mathbf{X}) \leq r}\|\mathbf{Y}-\mathbf{X}\| YQQYrank(X)rminYX

疑问 Q ∗ \mathbf{Q}^* Q是什么?共轭转置?

在这里插入图片描述
从算法2可以看到,RSVD的计算包含 O ( M N p l o g ( r ) + ( M N + p ) r 2 ) O(MNplog(r)+(MN+p)r^2) O(MNplog(r)+(MN+p)r2)flops,比SVD效率高。

在算法2中,如果 Y Y Y的奇异值逐渐衰减,估计的精度可能会损失。引入一个修正的RSVD,计算 H = ( Y Y ∗ ) q Y G \mathbf{H}=(\mathbf{YY}^{*})^q\mathbf{YG} H=(YY)qYG而不是 H = Y G \mathbf{H}=\mathbf{YG} H=YG,因为 ( Y Y ∗ ) q Y G (\mathbf{YY}^{*})^q\mathbf{YG} (YY)qYG具有与 Y G \mathbf{YG} YG相同的奇异向量,而其奇异值衰减得更快。

Adaptive Determination of the Parameters

我们采用了基于多元回归理论的方法来估计噪声,(以下省略加粗) Y = [ Y 1 , Y 2 , ⋯   , Y p ] Y=[Y_1,Y_2,\cdots,Y_p] Y=[Y1,Y2,,Yp],令 Y ∂ i = [ Y 1 , Y 2 , … , Y i − 1 , Y i + 1 , … , Y p ] \mathbf{Y}_{\partial_{i}}=\left[\mathbf{Y}_{1}, \mathbf{Y}_{2}, \ldots, \mathbf{Y}_{i-1}, \mathbf{Y}_{i+1}, \ldots, \mathbf{Y}_{p}\right] Yi=[Y1,Y2,,Yi1,Yi+1,,Yp]

M N × ( p − 1 ) MN\times (p-1) MN×(p1)矩阵,我们假设 Y i Y_i Yi可由剩余的 p − 1 p-1 p1个波段线性组合表示 Y i = Y ∂ i β i + ξ i Y_i=Y_{\partial_i}\beta_i+\xi_i Yi=Yiβi+ξi其中 β i \beta_i βi是回归向量,大小为 ( p − 1 ) × 1 (p-1)\times1 (p1)×1 ξ i \xi_i ξi为噪声向量,大小为 M N × 1 MN\times1 MN×1,由最小二乘估计可知 β ^ = ( Y ∂ i T Y ∂ i ) − 1 Y ∂ i T Y i \hat{\beta}=\left(\mathbf{Y}_{\partial_{i}}^{T} \mathbf{Y}_{\partial_{i}}\right)^{-1} \mathbf{Y}_{\partial_{i}}^{T} \mathbf{Y}_{i} β^=(YiTYi)1YiTYi

因此噪声估计为 ξ ^ i = Y i − Y ∂ i β ^ \hat{\xi}_{i}=\mathbf{Y}_{i}-\mathbf{Y}_{\partial_{i}} \hat{\beta} ξ^i=YiYiβ^,相关矩阵为 W = [ ξ ^ 1 , … , ξ ^ p ] T [ ξ ^ 1 , … , ξ ^ p ] / ( M N ) \mathbf{W}=[\hat{\xi}_{1}, \ldots, \hat{\xi}_{p}]^{T}[\hat{\xi}_{1}, \ldots, \hat{\xi}_{p}] /(M N) W=[ξ^1,,ξ^p]T[ξ^1,,ξ^p]/(MN).

我们提供一种简单的基于奇异值分解的上界秩估计方法。对 Y \mathbf{Y} Y N = [ ξ ^ 1 , … , ξ ^ p ] \mathbf{N}=[\hat{\xi}_{1}, \ldots, \hat{\xi}_{p}] N=[ξ^1,,ξ^p]使用奇异值分解,得到奇异值分别为 [ σ 1 , ⋯   , σ p ] , [ S 1 , ⋯   , S p ] [\sigma_1,\cdots,\sigma_p],[S_1,\cdots,S_p] [σ1,,σp],[S1,,Sp],现在可以求出参数值 r r r,使得 σ r ≥ S 1 σ_r≥S_1 σrS1 σ r + 1 < S 1 σ_{r+1}<S_1 σr+1<S1。秩的上界设置为 r r r,意味着第一个 r r r维子空间包含更多的信号。估计的上界秩为7,去噪的下一步是从每个块的7维信号子空间中分离噪声。

NAILRMA算法中只需要指定三个参数:块大小、步长和衰减参数 c c c。块的大小设置为 20 × 20 × p 20\times20\times p 20×20×p(与LRMR同步),步长设置为8×8,即我们只在水平和垂直方向上每8个像素选择一个块,以加快计算速度。每个不同波段的噪声变化率不变,我们简单地将衰减参数 c c c设置为5(通过实验证明),忽略绝对值,但集中于迭代参数 δ δ δ的相对值。

推广到混合噪声去除

噪声退化模型为 Y = X + S + N Y=X+S+N Y=X+S+N S S S为稀疏噪声,为脉冲噪声、死像素或死线以及条纹的混合。低秩近似去噪然后被扩展为众所周知的RPCA模型: min ⁡ X , S ∥ Y − X − S ∥ F 2  s.t.  rank ⁡ ( X ) ≤ r , card ⁡ ( S ) ≤ b \min _{\mathbf{X}, \mathbf{S}}\|\mathbf{Y}-\mathbf{X}-\mathbf{S}\|_{F}^{2} \text { s.t. } \operatorname{rank}(\mathbf{X}) \leq r, \quad \operatorname{card}(\mathbf{S}) \leq b X,SminYXSF2 s.t. rank(X)r,card(S)b

这里, b b b代表稀疏噪声的上限基数。LRMR算法利用RPCA模型对HSI逐块去噪,是最先进的HSI混合噪声去除方法之一。为了进一步提高算法的密集去噪性能,还采用了算法1中提出的噪声调整迭代框架,并结合了LRMR算法(NAILRMR)对HSI进行去噪。唯一的修改是利用RPCA模型代替算法1的步骤6中的(3)。

在这里插入图片描述

实验

对比方法:SSAHTV、VBM3D、BM4D、SURE-SVT、LRMR

模拟实验数据:Washington DC Mall(256×256×191),Pavia city center(200×200×80).

情况1:零均值,噪声方差分别为0.02、0.04、0.06、0.08和0.1.

情况2:不同的方差零均值高斯噪声被添加到两个HSI数据集的每个波段。方差值从0到0.1随机选取,平均方差值分别为0.053和0.051.

SSAHTV和LRMR的参数选择:
在这里插入图片描述
为了进一步比较所有去噪算法的性能,我们计算了无噪声和去噪后的HSI之间所有光谱特征的平均谱角距离(越小越好):
M S A D = 1 M N ∑ i = 1 M N 180 π × arccos ⁡ ( X i ) T ⋅ ( X ^ i ) ∥ X i ∥ ⋅ ∥ X ^ i ∥ \mathrm{MSAD}=\frac{1}{M N} \sum_{i=1}^{M N} \frac{180}{\pi} \times \arccos \frac{\left(\mathbf{X}^{i}\right)^{T} \cdot\left(\hat{\mathbf{X}}^{i}\right)}{\left\|\mathbf{X}^{i}\right\| \cdot\left\|\hat{\mathbf{X}}^{i}\right\|} MSAD=MN1i=1MNπ180×arccosXiX^i(Xi)T(X^i)

混合噪声实验参数:r=7,b=6000,步长=8.

在所有模拟和真实数据实验中,停止标准设定为 ε = 1 e − 3 ε=1e-3 ε=1e3,最大迭代次数为50.

具体实验结果见原论文,这里不再给出。

代码

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值