机器学习实战笔记(二)

本文深入探讨了机器学习中的回归技术,包括局部加权线性回归、岭回归和lasso回归等方法。通过数学推导解释了这些技术如何工作,并讨论了如何通过调整参数来避免过拟合和欠拟合问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习实战笔记(二)

标签(空格分隔): 机器学习


局部加权线性回归

平方误差∑i=1m(yi−xiTw)2\sum_{i=1}^m (y_i - x_i^T w)^2i=1m(yixiTw)2=(y−Xw)T(y−Xw)=(y-Xw)^T(y-Xw)=(yXw)T(yXw)求导令其为0得到如下

ω^=(XTX)−1XTy\hat{\omega } = (X^TX)^{-1} X^Tyω^=(XTX)1XTy
k小的时候只用到很小的数据
ω^=(XTWX)−1XTWy\hat{\omega } = (X^TWX)^{-1} X^TWyω^=(XTX)1XTy
在局部加权线性回归中,较小的核容易得到较低的误差,但是最小的核容易过拟合

缩减系数来理解数据

  • 首先如果数据特征多于样本点怎么办?求解(XTX)−1求解(X^TX)^{-1}(XTX)1会出现问题
    统计学家引入岭回归,以及lasso法

岭回归

其实就是在XTX上面加上一个λI从而让矩阵非奇异X^TX上面加上一个\lambda I从而让矩阵非奇异XTXλI
在增加如下条件下,普通最小二乘法可以得到和岭回归一样的公式
∑k=1nωk2≤λ\sum _{k=1}^n \omega _k ^2 \leq \lambdak=1nωk2λ

lasso回归

∑k=1n∣ωk∣≤λ\sum _{k=1}^n | \omega _k | \leq \lambdak=1nωkλ

诊断偏差和方差


训练集误差和交叉验证集误差近似时:偏差/欠拟合
交叉验证集误差远大于训练集误差时:方差/过拟合

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值