监督学习算法——线性回归(多项式回归)

这篇博客探讨了线性回归在面对欠拟合时如何通过多项式回归来提升拟合效果。介绍了数据升维的概念,以及过拟合和欠拟合的区别。接着,作者讨论了模型误差的构成,包括偏差和方差,并提出通过正则化来平衡两者,如岭回归和LASSO回归。最后,展示了如何使用sklearn库实现多项式回归。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

工作原理

问题:当线性函数无法 拟合数据时,我们选择多项式回归。
方法:为原来的数据,增加新的特征(升维)。
简而言之,就是在线性回归方法之前,进行了数据预处理(升维)
数据升维:低位数据集的线性模型常常出现欠拟合的问题,升维后,增加特征,有利于解决欠拟合的问题
在这里插入图片描述在这里插入图片描述

过拟合欠拟合

在这里插入图片描述
欠拟合(全差)
过拟合:对训练集拟合较好,对测试集预测差

以后面临的基本全是,过拟合问题。

交叉验证

在这里插入图片描述
在这里插入图片描述

偏差 方差

在这里插入图片描述
模型误差 = 偏差(bias)+方差(Variance) + 不可避免的误差
偏差: 对问题本身的 假设不准确(欠拟合)
方差: 使用模型太复杂(过拟合)

偏差与方差通常是矛盾的(一边降低,一边就不升高)

通常主要问题都处在方差上:
解决办法:

  1. 降低模型复杂度
  2. 减少数据维度,降噪
  3. 增加样本数
  4. 使用验证集
  5. 正则化

模型正则化(regularization)

模型正则化:限制参数的大小
岭回归公式:
J ( θ ) = M S E ( y , y ^ ; θ ) + α 1 2 ∑ i = 1 n θ i 2 J(\theta)=M S E(y, \hat{y} ; \theta)+\alpha \frac{1}{2} \sum_{i=1}^{n} \theta_{i}^{2} J(θ)=MSE(y,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值