LR深入理解

本文深入探讨了逻辑回归(LR)的基础,包括其正则化方法,如L1(Lasso)和L2(岭回归)正则化,如何避免过拟合,并解释了L1正则化的稀疏性和L2正则化的权值衰减。同时,LR被视作线性回归的一种,其预测结果受限于[0,1],且与最大熵模型有关。最后,讨论了LR的并行化可能性。" 128808631,9046145,PCL点云处理:基于法向差异的图像分割详解,"['点云处理', '计算机视觉', '算法', 'c++']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. LR基础推导
    LR前世今生
  2. LR正则化

    当模型的参数过多时,很容易遇到过拟合的问题。而正则化是结构风险最小化的一种实现方式,通过在经验风险上加一个正则化项,来惩罚过大的参数来防止过拟合。
    奥卡姆剃刀原理:能够很好地解释已知数据并且十分简单的才是最好的模型。
    L1正则化:lasso,稀疏规则,参数稀疏,实现参数自动选择
                      学习地去掉一些无用信息的特征,将他们权重置0
    L2正则化:Ridge 岭回归 权值衰减
    L1与L2不同:
    1. L1:趋向使参数变为0,趋向使用少量特征,其他特征为0
    2. L2:趋向选择更多特征,接近0



      而左边黑色矩形 |

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值