bias和variance分析

本文探讨了bias和variance的权衡,强调在模型选择中找到训练误差和测试误差的最佳平衡至关重要。通过联想记忆,将欠拟合(高偏差)与过拟合(高方差)形象化。引用文献指出随机森林通过增加偏差降低方差,而集成学习如bagging和boosting分别针对过拟合和欠拟合提供解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Bias and variance tradeoff is everywhere

  • 文献中bias和varience常常出现,为了混淆,特别做一次对比,帮助记忆。
  • 核心是有切当的模型复杂度,使得训练误差和测试误差得到最佳平衡,换一个说法就是欠拟合和过拟合的平衡到处都需要考虑。

联想记忆

  • bias,对应下图的直线长度也短,就是欠拟合,也就是偏差太高。
  • variance,对应下图的曲线长度特别长,就是过拟合,也就是方差太高。
    在这里插入图片描述

引用文献中的一句话:

Random Forests results in a greater tree diversity ,which trades a
higher bias for a lower variance than DecisionTree, generally yielding
an overall better model.

意思就是指,相比于决策树,随机森林用提升了偏差的代价,降低了方差,减少了过拟合(决策树的缺陷之一)。

多看几个图,帮助理解记忆:

在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值