机器学习中 正则化项L1和L2 解读

正则化是机器学习中提升模型泛化能力的关键技术,通过在损失函数中添加惩罚项来避免过拟合。L1正则化(Lasso回归)和L2正则化(Ridge回归)是两种常见的方法,分别通过对参数施加L1范数和L2范数的约束来简化模型并减少特征权重的绝对值,从而达到模型压缩和稳定性的目的。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

@创建于:20211019

正则化(Regularization) 是机器学习中对原始损失函数引入额外信息,以便防止过拟合和提高模型泛化性能的一类方法的统称。也就是目标函数变成了原始损失函数+额外项,常用的额外项一般有两种,英文称作ℓ1−norm和ℓ2−norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数(实际是L2范数的平方)。

L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓惩罚是指对损失函数中的某些参数做一些限制。对于线性回归模型,使用L1正则化的模型叫做Lasso回归,使用L2正则化的模型叫做Ridge回归(岭回归)。

在这里插入图片描述
更详细内容请参考:
深入理解L1、L2正则化
机器学习中正则化项L1和L2的直观理解

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值