正则化与L0,L1,L2范数简介

本文介绍了机器学习中常见的范数,如L0、L1和L2范数,以及它们在模型正则化中的应用。L1范数(Lasso回归)通过产生稀疏解来进行特征选择,防止过拟合,而L2范数(Ridge回归)则通过使模型参数更小但不为零来规则化模型,保持模型稳定性。正则化是平衡模型复杂度与泛化能力的重要手段,遵循奥卡姆剃刀原理,防止过拟合。L1正则化相比于L2更容易得到稀疏解,适合特征选择。

参考:机器学习中的范数规则化之(一)L0、L1与L2范数

1. 常见的范数

1.1 L0 范数

向量中非零元素的个数,即稀疏度,适合稀疏编码,特征选择。

1.2 L1 范数

又叫曼哈顿距离或最小绝对误差,向量中各个元素绝对值之和,也叫“稀疏规则算子”。

1.3 L2 范数

又叫欧式距离,向量中各元素平方和再开方

L1 范数相当于给模型参数\theta设置一个拉普拉斯先验分布;L2范数相当于给模型参数\theta设置一个均值为0的高斯先验分布。

1.4 针对线性回归问题怎么选择惩罚项?

通过缩减回归系数避免过拟合问题。

L1 范数(Lasso回归)

1. 特征选择(将某些系数缩减为0)

2. 防止过拟合。

L2 范数(Ridge回归)

1. 规则化,让优化求解变得更稳定快速;

2. 防止过拟合。

2. 正则化

2.1 正则化作用

在经验风险与模型复杂度之间做平衡(选择二者同时较小的模型),

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值