决策树考点

博客介绍了随机森林、Bagging和GBDT的相关知识。随机森林随机选特征可避免每次都选强相关特征,使树不同;Bagging是自举汇聚法;GBDT子采样无放回,Bagging子采样有放回。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.随机森林随机选特征的作用

RF的话,如果有一个特征和标签特别强相关。选择划分特征时,如果不随机的从所用特征中随机取一些特征的话,那么每一次那个强相关特征都会被选取。那么每个树都会是一样的。这就是随机森林随机选取一些特征的作用,让某些树,不选这个强相关特征。

2.Bagging 意义

bootstrap aggregating 自举汇聚法

模型很好,variable很大。

3.GBDT的子采样是无放回采样,而Bagging的子采样是放回采样

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值