机器学习基础__02__L1L2范数在机器学习中应用

本文介绍了L1和L2范数的概念及其在机器学习中的应用。L1范数导致参数稀疏,可用于特征选择和提高可解释性;而L2范数通过防止过拟合提升模型泛化能力。L1正则化倾向于使部分参数变为0,而L2正则化则使参数接近0。在梯度下降中,L1的梯度恒定导致参数向0稳定收敛,L2的梯度随参数减小而减小,不易产生稀疏解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

1. 范数概念

2. 为什么L1有稀疏性?L2则没有

3. 应用



1. 范数概念

范数是衡量某个向量空间(或矩阵)中的每个向量以长度或大小。
范数的一般化定义:对实数p>=1, 范数定义如下
                                  \|x\|_{p}:=\left(\sum_{i=1}^{n}\left|x_{i}\right|^{p}\right)^{\frac{1}{p}}

L1范数
当p=1时,是L1范数,其表示某个向量中所有元素绝对值的和,也叫“稀疏规则算子”。
                                 \|x\|_{1}:=\sum_{i=1}^{n}\left|x_{i}\right|

稀疏的意思是可以让权重矩阵的一部分值等于0(如何做到?后面会讲),但是一些参数仍然会比较大。
L1范数可以实现稀疏性,参数稀疏有两个很好的作用:

  • 特征选择:选择出与预测有关的特征,无关的特征参数为0
  • 可解释性:可以看出哪些特征与预测相关
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值