机器学习---bagging与随机森林

本文探讨了bagging算法,特别是其与boosting的区别,强调了随机森林(随机采样决策树)的概念,以及其在分类、回归和异常检测中的应用。还提到了RF的进化版本和变种,如extratrees和TotallyRandomTreesEmbedding。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. bagging算法

集成学习有两个流派:一个是boosting派系,它的特点是各个弱学习器之间有依赖关系。另一种是

bagging流派,它的特点是各个弱学习器之间没有依赖关系,可以并行拟合。

Bagging的弱学习器之间的确没有boosting那样的联系,是“随机采样”。

随机采样(bootsrap)就是从训练集里面采集固定个数的样本,但是每采集一个样本后,都将样本

。也就是说,之前采集到的样本在放回后有可能继续被采集到。对于Bagging算法,一般会随机

采集和训练集样本数一样个数的样本。这样得到的采样集和训练集样本的个数相同,但是样本内容

不同。如果我们对有m个样本的训练集T 随机采样,则由于随机性,T个采样集各不相同。

对于一个样本,它在某一次含 m 样本的训练集的随机采样中,每次被采集到的概率1/m

被采集到的概率为 1-1/m。如果 m 次采样都没有被采集中的概率是 [(1-1/m)]^m。当 m→∞,[(1-

1/m)]^m→1/e  ≈"0.368"也就是说,在bagging的每轮随机采样中,训练集中大约有36.8%的数据

没有被采样集采集中。对于这部分大约36.8%的数据没有被采样到,我们常常称之为袋外数据(Out

Of Bag, 简称OOB)。这些数据没有参与训练集模型的拟合,因此可以用来检测模型的泛化能力。

Bagging算法对于弱学习器没有限制,最常用的是决策树和神经网络。

Bagging结合策略:分类问题,通常使用简单投票法,得到最多票数的类别或者类别之一为最终的

模型输出。回归问题,通常使用简单平均法,对T个弱学习器得到的回归结果进行算术平均得到最

终的模型输出。

Bagging方

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

三月七꧁ ꧂

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值