单图像盲反卷积与高阶纹理统计:原理、方法与实验
在图像领域,盲反卷积是一项重要技术,旨在从模糊图像中恢复出清晰的原始图像。本文将深入探讨单图像盲反卷积的相关原理、方法,并通过实验验证其有效性。
1. 算法基础:最小二乘共轭梯度下降算法
在求解过程中,使用了最小二乘共轭梯度下降算法。迭代的主要部分是代价函数(11)关于 $f$ 的梯度 $\nabla E_f$:
$\nabla E_f = \left(\alpha\Sigma^T\Sigma + H_{\hat{d}}^T H_{\hat{d}}\right) f - H_{\hat{d}}^T g$ (12)
该下降算法会迭代直至 $\nabla E_f \simeq 0$。由于代价函数关于 $f$ 是凸的,所以得到的解也是全局最小值。
为了计算 $\Sigma$,使用了一个清晰图像数据库 $F = [f_1 \cdots f_T]$,其中 ${f_i} {i=1,\cdots,T}$ 是重新排列为列向量的清晰图像。接着进行奇异值分解 $F = U_F \Sigma_F V_F^T$,然后将 $U_F$ 划分为 $[U {F,1} U_{F,2}]$,使得 $U_{F,2}$ 对应于 $\Sigma_F$ 的最小奇异值。高阶先验定义为 $\Sigma \triangleq U_{F,2}U_{F,2}^T$,从而有 $\Sigma f_i \approx 0$。正则化参数 $\alpha$ 则需要手动调整。矩阵 $H_{\hat{d}}$ 按照特定方法计算。
2. 模糊尺度识别的几何视角
在之前的研究中,每个像素的模糊尺度可以通过最小化公式(9
超级会员免费看
订阅专栏 解锁全文
9406

被折叠的 条评论
为什么被折叠?



