【机器学习】L1正则化与L2正则化

L1,L2正则化解决过拟合问题

目录

过拟合的原因

正则化的目标

L1,L2正则化

L1正则化

L2正则化

从概率的角度来看 

L1 正则化与拉普拉斯分布 

L2 正则化与高斯分布


过拟合的原因

过拟合发生时,模型学习到了训练数据中的噪声或细节,表现为模型参数过于复杂(例如过大的权重值或过于灵活的假设),导致在测试数据上的表现较差

模型复杂-----参数的个数和参数的大小范围决定的

欠拟合                                             理想状态                                            过拟合

过拟合:曲线太过复杂,防止过拟合:让曲线变得平滑一下

正则化的目标

在机器学习中,正则化的目标是控制模型的复杂度,防止过拟合。
其常见形式是向损失函数添加一个约束项(正则项)

线性模型的损失函数 

 

我们要对损失函数 求最小值

L1,L2正则化

L1 和 L2 正则化能够防止过拟合的原因在于它们通过在损失函数中加入惩罚项限制模型的复杂度,抑制参数的无限增大,从而提高模型的泛化能力。

L1正则化

在目标函数中加入模型参数的绝对值之和作为惩罚项

可以使部分参数缩小为零,从而实现特征选择(

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

知识快到我脑里来

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值