稀疏编码: LASSO,近端梯度优化(PGD),迭代软阈值算法(ISTA),L-Lipschitz条件,软阈值

本文介绍了稀疏编码中涉及的LASSO、近端梯度下降(PGD)、软阈值和迭代软阈值算法(ISTA)。LASSO通过L1范数约束实现解的稀疏性,而PGD在非光滑损失函数中寻找局部最优解。软阈值用于处理L1范数的导数问题,使得解更加平滑。在稀疏编码的迭代过程中,ISTA结合了这些方法。L-Lipschitz条件确保了损失函数的局部性质,有利于PGD的应用。

在用到稀疏编码时,难免会提到以下概念:

(1)LASSO(Least Absolute Shrinkage and Selection Operatior): 最小绝对收缩选择算子。这个名词听名字比较唬人,很高大上的样子,其实本质很简单,就是给一个解向量增加一个L1范数约束,使解向量的元素尽可能稀疏(0元素越多越好)。L1范数就是一个向量的各元素的绝对值之和。

(2)近端梯度下降(Proximal Gradient Descent, PGD),也可以称为近端梯度优化:听着也很高大上。其实质就是,当一个损失函数比较复杂时,我们把这个损失函数的某个点处用泰勒公式展开为二次函数,用于拟合这个损失函数的局部区域的形状。这样,我们就可以在这个点的附近区域,通过求泰勒公式展开的二次函数的最优解来求损失函数在这个点的近邻区域的局部最优解。PGD可行的一个前提是损失函数在局部满足L-Lipschitz条件,L-Lipschitz条件将在下面被介绍。

所以,“近端”表示的是局部区域,在损失函数曲线上的一个泰勒展开点的近端/附近。

           “近端梯度优化”:在损失函数曲线上的一个点的附近进行泰勒展开,通过执行梯度优化寻找局部最优解。

一个典型的图像如下所示:

PGD示意图

由以上可见,近端梯度优化得到的是一个局部区域的最优解,不是全局最

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值