【MachineLearning】之 岭回归(Ridge Regression)

本文介绍了岭回归的必要性,通过对比线性回归指出其存在的问题,如模型过拟合。接着阐述了岭回归的概念,解释了如何通过添加L2正则项来防止过拟合,并在数学上展示了其解析解。最后,通过代码演示了如何使用scikit-learn实现岭回归,探讨了与简单最小二乘法结果不同的原因。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Topic:
  1. 为什么需要岭回归?
  2. 岭回归如何防止模型出现过拟合
  3. 岭回归代码


一、为什么需要岭回归?


(1) 线性回归不好?

线性回归主要根据 最小二乘法

那么,哪里出了问题呢?
  • 最小二乘法的目标:使得训练集中的真实集与回归模型的估计值的均方差最小;
  • 我们的目标:测试集中的真实值与回归模型的估计值的差异最小

最小二乘法的目标 == 我们的目标?

举个栗子:

有一系列参数 wi w i

w0 w 0 w1 w 1 w2 w 2 w3 w 3 w4 w 4
1 1 1 1 6

w4 w 4 过大,且其他参数对其影响很微小时候,那么这个 w4 w 4 独裁

即,只要 w4 w 4 稍微变动都会对最后的值产生重大影响,导致均方差波动很大。



那么如何防止 w4 w 4 这个变量独裁呢?

如果内部无法调控,那么就从外部入手,给它加个“手柄”( λni=1(wi)2 λ ∑ i = 1 n ( w i ) 2

FRidge=
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值