L0、L1、L2范式对比

博客介绍了L2正则能减轻过拟合风险的原理。L2正则使模型参数W每个元素接近0,让模型更简单,能适应不同数据集。以线性回归为例,参数小会增加模型抗扰动能力,数据偏移对结果影响小,从而减小过拟合风险。

https://blog.youkuaiyun.com/zouxy09/article/details/24971995/

L2为什么能减轻过拟合风险:

L2正则相当于在使模型的参数W每个元素都很小,接近于0,而这样做的之后,也就是使模型相对简单,能适应不同的数据集,也在一定程度上避免了过拟合现象。而为什么参数小就能使模型减轻过拟合风险呢?以线性回归方程生动举例,假若参数较大,那么只要数据稍微偏移一点点,因W较大,也就会造成结果偏移很大;相反如果W相对较小,那么数据偏移较大也不会对结果产生很大影响,模型的抗扰动能力被增加,从而能减小过拟合风险。

L范数归一化和L2范数归一化是常见的向量归一化方法,它们在计算方式和效果上有一些区别和特点。 1. 计算方式: - L1范数归一化:对向量中的每个元素取绝对值之后求和,然后将每个元素除以该求和结果。公式为:归一化后的向量 = 原向量 / L1范数。 - L2范数归一化:对向量中的每个元素平方求和,然后将每个元素除以该求和结果的平方根。公式为:归一化后的向量 = 原向量 / L2范数。 2. 效果比较: - L1范数归一化:会使得向量中每个元素的绝对值之和为1。这种归一化方式适用于稀疏向量,即大部分元素接近0的情况。它可以保留原始向量中的零元素,并且对异常值不敏感。 - L2范数归一化:会使得向量的欧氏距离为1,即长度为1。这种归一化方式适用于稠密向量,即绝大部分元素都有较大的非零值的情况。它可以保留原始向量中的相对大小关系,并且对异常值相对敏感。 3. 应用场景: - L1范数归一化:常用于特征选择和稀疏表示。在文本分类、图像处理等领域,L1范数归一化可以使得特征权重稀疏化,减少无关特征的影响。 - L2范数归一化:常用于特征缩放和正则化。在机器学习算法中,L2范数归一化可以使得特征具有相同的尺度,避免某些特征对模型的影响过大。 总的来说,L1范数归一化适用于稀疏向量和特征选择,而L2范数归一化适用于稠密向量和特征缩放。选择哪种归一化方式要根据具体的数据特点和应用场景来决定。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值