Bias-Variance Tradeoff

博客围绕机器学习展开,介绍泛化误差是模型在训练集和测试集表现差异,由随机误差、偏差和方差组成。偏差衡量预测值与真实值差距,方差体现预测值离散程度,二者常难兼顾。还阐述了过拟合和欠拟合情况及解决办法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Generalization error

我们利用机器学习解决实际问题,通常会定义一个损失函数,并将训练集上的Loss最小化,但在有限的数据集上训练出来的模型并不能保证解决一般的问题时仍然是最优的。这个模型在有限的数据集(训练集)和一般的数据集(测试集)上的表现差异,可以用泛化误差来表示,泛化误差就是所学习到的模型的期望风险
泛化误差由随机误差(Error)、偏差(Bias)和方差(Variance)组成。一般情况下,随机误差是数据本身的噪声带来的,这种误差是不可避免的,本篇主要关注偏差和方差。


Bias and Variance

方差和偏差从两个角度衡量了我们学习到的模型和真实的模型之间的差异。
偏差:描述的是预测值与真实值之间的差距。偏差越大,越偏离真实数据。
方差:描述的是预测值的离散程度。方差越大,数据分布越分散。
这时又要祭出这一张经典的图(几乎在每个谈到偏差方差的帖子都看到),下图将机器学习任务描述为一个打靶的活动:模型每做出一次预测就相当于是一次打靶。偏差越小越“准”,越靠近靶心;而方差越小越“确”,每次打靶的偏离程度越小。 左上角的图例方差偏差都小,是比较理想的模型。
在这里插入图片描述
然而在一个实际系统中,方差与偏差往往是鱼与熊掌的关系。因为想要在训练集上拟合得比较好,就要复杂化模型,容易造成过拟合(overfitting)。相反地,如果想要在方差上表现得比较好,就要简化模型,容易造成欠拟合(unfitting)。
在这里插入图片描述
但大牛吴恩达在 Deep Learning Specialization谈到了这个问题,Bias-Variance Tradeoff在深度学习领域中不一定成立,因为造成这种情况的根本原因是传统机器学习的训练数据十分有限,而深度学习的一大特点就是需要大量的数据,因此是可能存在方差和偏差同时减小的情况的。


Overfitting and unfitting

模型处于欠拟合的状态时,根本的办法是增加模型的复杂度:

  • 增加模型的迭代次数;
  • 采用更加复杂的模型;
  • 减小正则化权重。

模型处于过拟合的状态时,根本的办法是简化模型的复杂度:

  • 获取更多的数据;
  • 进行数据清洗;
  • 减少特征的数量(特征筛选);
  • 提前停止迭代(early stopping);
  • 增加正则化权重。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值