Topic:
- 为什么需要岭回归?
- 岭回归如何防止模型出现过拟合
- 岭回归代码
一、为什么需要岭回归?
(1) 线性回归不好?
线性回归主要根据 最小二乘法
那么,哪里出了问题呢?
- 最小二乘法的目标:使得训练集中的真实集与回归模型的估计值的均方差最小;
- 我们的目标:测试集中的真实值与回归模型的估计值的差异最小
举个栗子:
有一系列参数 wiwi
| w0w0 | w1w1 | w2w2 | w3w3 | w4w4 |
|---|---|---|---|---|
| 1 | 1 | 1 | 1 | 6 |
当 w4w4 过大,且其他参数对其影响很微小时候,那么这个 w4w4 独裁
即,只要 w4w4 稍微变动都会对最后的值产生重大影响,导致均方差波动很大。
那么如何防止 w4w4 这个变量独裁呢?
如果内部无法调控,那么就从外部入手,给它加个“手柄”(λ∑ni=1(wi)2λ∑i=1n(wi)2)
FRidge=

本文介绍了岭回归的必要性,通过对比线性回归指出其存在的问题,如模型过拟合。接着阐述了岭回归的概念,解释了如何通过添加L2正则项来防止过拟合,并在数学上展示了其解析解。最后,通过代码演示了如何使用scikit-learn实现岭回归,探讨了与简单最小二乘法结果不同的原因。
最低0.47元/天 解锁文章
1659

被折叠的 条评论
为什么被折叠?



