- LR基础推导
LR前世今生 - LR正则化
当模型的参数过多时,很容易遇到过拟合的问题。而正则化是结构风险最小化的一种实现方式,通过在经验风险上加一个正则化项,来惩罚过大的参数来防止过拟合。
奥卡姆剃刀原理:能够很好地解释已知数据并且十分简单的才是最好的模型。
L1正则化:lasso,稀疏规则,参数稀疏,实现参数自动选择
学习地去掉一些无用信息的特征,将他们权重置0
L2正则化:Ridge 岭回归 权值衰减
L1与L2不同:
- L1:趋向使参数变为0,趋向使用少量特征,其他特征为0
- L2:趋向选择更多特征,接近0
而左边黑色矩形 |
LR深入理解
最新推荐文章于 2023-11-20 20:14:09 发布