L1正则为什么更容易获得稀疏解

本文探讨了L1和L2正则化在解决过拟合问题中的作用,特别是L1正则化如何通过产生稀疏解来进行特征选择。通过数学公式解释了为何L1正则化能导致模型参数变为零。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

L1和L2正则常被用来解决过拟合问题。而L1正则也常被用来进行特征选择,主要原因在于L1正则化会使得较多的参数为0,从而产生稀疏解,将0对应的特征遗弃,进而用来选择特征。

但为什么L1正则会产生稀疏解呢?这里利用公式进行解释。
假设只有一个参数为www,损失函数为L(w)L(w)L(w),分别加上L1正则项和L2正则项后有:

JL1(w)=L(w)+λ∣w∣ J_{L1}(w) = L(w) + \lambda \lvert w \rvert JL1(w)=L(w)+λw
JL2(w)=L(w)+λw2 J_{L2}(w) = L(w) + \lambda w^2 JL2(w)=L(w)+λw2

假设L(w)L(w)L(w)在0处的导数为d0d_0d0,即
∂L(w)∂w∣w=0=d0 \frac{\partial L(w)}{\partial w} \bigg |_{w=0} =d_0 wL(w)w=0=d0

则可以推导使用L1正则和L2正则时的导数。

引入L2正则项,在0处的导数
∂JL2(w)∂w∣w=0=d0+2×λ×w=d0 \frac{\partial J_{L2}(w)}{\partial w} \bigg |_{w=0} =d_0 + 2 \times \lambda \times w = d_0 wJL2(w)w=0=d0+2×λ×w=d0

引入L1正则项,在0处的导数
∂JL1(w)∂w∣w=0−=d0−λ \frac{\partial J_{L1}(w)}{\partial w} \bigg |_{w=0^-} =d_0 - \lambda wJL1(w)w=0=d0λ

∂JL1(w)∂w∣w=0+=d0+λ \frac{\partial J_{L1}(w)}{\partial w} \bigg |_{w=0^+} =d_0 + \lambda wJL1(w)w=0+=d0+λ

可见,引入L2正则时,代价函数在0处的导数仍是d0d_0d0,无变化。而引入L1正则后,代价函数在0处的导数有一个突变。从d0+λd_0 + \lambdad0+λd0−λd_0 - \lambdad0λ,若d0+λd_0 + \lambdad0+λd0−λd_0 - \lambdad0λ异号,则在0处会是一个极小值点。因此,优化时,很可能优化到该极小值点上,即w=0w=0w=0处。

  这里只解释了有一个参数的情况,如果有更多的参数,也是类似的。因此,用L1正则更容易产生稀疏解。

评论 17
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值