机器学习的过拟合和欠拟合

本文深入探讨了机器学习中监督学习的基本原理,解析了如何通过拟合函数来建立数据模型,并详细讨论了过拟合与欠拟合的概念。文章指出,过拟合是指模型过分依赖训练集的固有误差,而欠拟合则是模型无法充分逼近实际函数,两者都可能导致模型的泛化能力下降。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习中的监督学习是拟合函数\(f\),使得对数据进行建模
\[ Y=f(X)+\epsilon \]
通常,我们只能建模去逼近函数\(f\), 即\(\hat{f}\),所以预测得到\(\hat{Y}\)
\[ \hat{Y} = \hat{f}(X)+\epsilon \]
\(\epsilon\) 是训练集本身固有的误差,数据噪声,是不可减小,且在实际应用中是未知的
训练的目的是减少 \(f\)\(\hat{f}\) 之间的误差,此误差可减小的,但我们没法直接衡量此误差,只能通过 \(Y\)\(\hat{Y}\) 的误差来训练

所以,在减小 \(f\)\(\hat{f}\) 时,我们可能训练得到的模型 \(\hat{f}\) 对训练集本身固有的误差 \(\epsilon\) 进行减少,
此时产生了训练过程的过拟合,而欠拟合则是在不减少本身固有的误差小,所建模型 \(\hat{f}\) 不足以逼近实际模型 \(f\)
或者说过拟合和欠拟合主要看哪个误差起到了决定性作用,即 \(f\)\(\hat{f}\) 的误差与误差 \(\epsilon\) 对模型结果的误差起决定性作用
前面的误差太大导致欠拟合,后面的误差太小导致过拟合

转载于:https://www.cnblogs.com/xiecl/p/10367395.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值