用bias/variance角度解释GDBT与RF的区别

本文对比了GBDT和RF两种经典集成学习方法。GBDT采用boosting方法,通过拟合损失函数梯度来更新模型;RF则使用bagging方法,通过自采样和属性随机减少过拟合风险。两者在bias和variance上的表现不同,了解这些差异有助于在实际场景中更好地选择和调整模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先,GBDT和RF都是集成方法中的经典模型,我们需要弄清楚下面几个问题:
1、GBDT是采用boosing方法,RF采用的是baggging方法
2、bias和variance是解释模型泛化性能的,其实还有噪声

然后,理解GBDT和RF执行原理,其中GBDT中的核心是通过用分类器(如CART、RF)拟合损失函数梯度,而损失函数的定义就决定了在子区域内各个步长,其中就是期望输出与分类器预测输出的查,即bias;而RF的核心就是自采样(样本随机)和属性随机(所有样本中随机选择K个子样本选择最优属性来划分),样本数相同下的不同训练集产生的各个分类器,即数据的扰动导致模型学习性能的变化,即variance。

最后,虽然从bias/variance角度理解了区别,估计能应付面试,但真正需要针对业务场景灵活调整模型还只能去看paper。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值