L1正则化与稀疏性

本文探讨了L0、L1、L2范数在回归和机器学习中的作用,重点分析了L1正则化如何通过解空间形状促使模型参数具有稀疏性,从而达到减少过拟合,提升泛化能力的效果。L1正则化相较于L2范数更容易产生0参数,实现特征选择,是嵌入式特征选择的有效方法。
1. L0、L1、L2

x=(x1,x2,…,xn)T x=( x_1,x_2,…,x_n)^T x=(x1,x2,,xn)T

1-范数:
║x║1=│x1│+│x2│+…+│xn│ ║x║_1=│x_1│+│x_2│+…+│x_n│ x1=x1+x2++xn

2-范数:
║x║2=(│x1│2+│x2│2+…+│xn│2) ║x║_2=\sqrt{(│x_1│^2+│x_2│^2+…+│x_n│^2)} x2=(x1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值