损失函数正则化方法

正则化方法

为防止模型过拟合,提高模型的泛化能力,通常会在损失函数的后面添加一个正则化项。L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓【惩罚】是指对损失函数中的某些参数做一些限制

L1正则化(ℓ1 -norm)

使用L1正则化的模型建叫做Lasso Regularization(Lasso回归),直接在原来的损失函数基础上加上权重参数的绝对值,η\etaη为正则化参数:
假设损失函数为(1)J0=∑i=1m(y(i)−θ0−θ1X1(i)−θ2X2(i)−⋯−θnXn(i))\tag{1}J_0=\sum_{i=1}^{m}(y^{(i)}-\theta_0-\theta_1X_1^{(i)}-\theta_2X_2^{(i)}-\cdots-\theta_nX_n^{(i)})J0=i=1m(y(i)θ0θ1X1(i)θ2X2(i)θnXn(i))(1)则Lasso Regularization为:
(2)J=J0+η∑i=1m∣θ∣\tag{2}J=J_0+\eta \sum_{i=1}^{m}|\theta|J=J0+ηi=1mθ(2)
JJJ 是带有绝对值符号的函数,因此JJJ是不完全可微的。当我们在原始损失函数J0J_0J0后添加L1L_1L1正则化项时,相当于对J0J_0J0做了一个约束。令L1=η∑i=1m∣θ∣L_1=\eta\sum_{i=1}^{m}|\theta|L1=ηi=1mθ,则J=J0+L1J=J_0+L_1J=J0+L1,此时我们的任务变成在LLL约束下求出JJJ取最小值的解。
η\etaη 被称为正则化系数.

下面通过图像来说明如何在约束条件L1L_1L1下求JJJ的最小值。
在这里插入图片描述
最终的损失函数就是求等高圆圈+黑色黑色矩形的和的最小值。由图可知等高圆圈+黑色黑色矩形首次相交时,JJJ取得最小值。
为什么L1L_1L1正则化项能够防止过拟合的情况?
对损失函数的参数优化求解过程进行分析
(3)∂C∂θ=∂C0∂θ+λsgn(θ)\tag{3}\frac{\partial C}{\partial \theta}=\frac{\partial C_0}{\partial \theta}+\lambda sgn(\theta)θC=θC0+λsgn(θ)(3)

上式中sgn(θ)sgn(\theta)sgn(θ)表示θ\thetaθ的符号。那么权重θ\thetaθ的更新规则为:
(4)θ→θ−η∑i=1m∂Ci∂θ−ηλsgn(θ)\tag{4}\theta \rightarrow \theta - \eta\sum_{i=1}^{m} \frac{\partial C_i}{\partial \theta}-\eta \lambda sgn(\theta)θθηi=1mθCiηλsgn(θ)(4)

比原始的更新规则多出了ηλsgn(θ)η λ sgn(\theta)ηλsgn(θ)这一项。当θ\thetaθ为正时,更新后的θ\thetaθ变小。当θ\thetaθ为负时,更新后的θ\thetaθ变大——因此它的效果就是让η\etaη往0靠,使网络中的权重尽可能为0,也就相当于减小了网络复杂度,防止过拟合。

L2正则化(ℓ2 -norm)

使用L2正则化的模型叫做Ridge Regularization(岭回归),直接在原来的损失函数基础上加上权重参数的平方和:
令损失函数为J0J_0J0,则Ridge Regularization为:
(5)J=J0+12η∑i=1nθ2\tag{5}J=J_0+\frac{1}{2}\eta \sum_{i=1}^{n}\theta^2J=J0+21ηi=1nθ2(5)
使最终的损失函数最小,要考虑J0J_0J0(6)L2=12η∑i=1nθ2\tag{6}L_2=\frac{1}{2}\eta \sum_{i=1}^{n} \theta^2L2=21ηi=1nθ2(6)两个因素,最终的损失函数就是求等高 圆圈+黑色圆圈的和的最小值。由图可知两个圆相交时,JJJ取得最小值。

在这里插入图片描述

为什么L2L_2L2正则化项能够防止过拟合的情况?
对损失函数的参数优化求解过程进行分析
(7)∂C∂θ=∂C0∂θ+λθ\tag{7}\frac{\partial C}{\partial \theta}=\frac{\partial C_0}{\partial \theta}+\lambda \thetaθC=θC0+λθ(7)

(8)∂C∂b=∂C∂b\tag{8}\frac{\partial C}{\partial b}=\frac{\partial C}{\partial b}bC=bC(8)
可以发现L2正则化项对b的更新没有影响,但是对于θ\thetaθ的更新有影响:
θ→θ−η∑i=1m∂Ci∂θ−ηλθ\theta \rightarrow \theta - \eta\sum_{i=1}^{m} \frac{\partial C_i}{\partial \theta}-\eta \lambda \thetaθθηi=1mθCiηλθ

(9)=(1−ηλ)θ−η∑i=1m∂Ci∂θ\tag{9}=(1-\eta \lambda )\theta - \eta \sum_{i=1}^{m}\frac{\partial C_i}{\partial \theta}=(1ηλ)θηi=1mθCi(9)

在不使用L2正则化时,求导结果中θ\thetaθ前系数为1,现在θ\thetaθ前面系数为 1−ηλ1−ηλ1ηλ ,因为η、λ都是正的,所以 1−ηλ1−ηλ1ηλ小于1,它的效果是减小θ\thetaθ,这也就是权重衰减(weight decay)的由来。

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值