并行MRI中基于总变分的正则化参数自适应
1. 基于延续策略的参数选择
正则化参数 $\beta$ 可以是常量,也可以依赖于迭代过程。采用依赖于迭代的阈值可以克服基于常量单参数恢复的问题。延续策略的核心思想是在迭代开始时使用较大的 $\beta$ 值来求解优化问题,随后在后续迭代中逐渐减小 $\beta$,直至达到目标正则化。
当 $\beta$ 足够大时,解与最稀疏解一致,会产生非常高的数据保真度。不过,由于算法早期迭代中的稀疏系数不可靠,所以初始时可以使用较大的 $\beta$ 值来优先考虑惩罚项,然后按照线性模式单调减小 $\beta$。
以下是一些基于延续策略的方法:
- 迭代阈值法 :由Starck等人和Elad等人开创,需要知道衰减因子。初始阈值通常设为较大值,如 $|\Psi^ F_Ku|_{\infty}$,$\beta$ 按线性或指数模式在每次迭代中减小。这种可变阈值收敛速度快,但不能保证收敛到低稳态误差。
- GPSR中的延续策略 :为克服稀疏重建中梯度投影(GPSR)里小正则化参数带来的速度问题而采用。初始使用大参数实现快速收敛(称为热启动),并与常量参数(冷启动)的性能进行比较。采用简单启发式方法,从预定值开始,分五步按常量因子减小,直至得到所需参数值。
- SpaRSA的自适应延续方法 :针对可分离近似稀疏重建(SpaRSA)算法提出,对于较大的初始 $\beta$ 值能实现更快收敛,但该自适应方案需要用户设置一个常量参数。
- Fadili等人的方法
并行MRI中TV正则化参数自适应方法
超级会员免费看
订阅专栏 解锁全文
37

被折叠的 条评论
为什么被折叠?



