决策树的究极进化之Bagging和Boosting

本文介绍了决策树的高级技术,包括Bagging和Boosting。Bagging通过有放回抽样创建训练集,每个模型的权重相等,适合并行计算。而Boosting则逐轮调整样例权重,重视错误分类,模型按权重叠加。两种方法整合弱分类器,提升分类效果,但计算量增加。结合决策树,形成了随机森林、提升树和GBDT等算法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

决策树基础参考: http://blog.youkuaiyun.com/leiting_imecas/article/details/52950663

本节介绍决策树的究极进化


1. Bagging(bootstrap Aggregation)

      bootstrap即拔靴带,帮助提靴的纽带,统计学上称为自住法; aggregating是指聚集. 机器学习的bagging方法指对多个学习器进行独立的学习、最后汇总的方法。
      算法流程:
       A)从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中)。共进行k轮抽取,得到k个训练集。(k个训练集之间是相互独立的)

    B)每次使用一个训练集得到一个模型,k个训练集共得到k个模型。(注:这里并没有具体的分类算法或回归方法,我们可以根据具体问题采用不同的分类或回归方法,如决策树、感知器等)

    C)对分类问题:将上步得到的k个模型采用投票的方式得到分类结果;对回归问题,计算上述模型的均值作为最后的结果。(所有模型的重要性相同)

    注:Bagging是一种方法,其中的单个模型不一定是决策树,可以是别的分类器。

2. boosting

     boosting是增强、强化的意思。boosting算法是指对多个学习器依次进行学习、逐渐增强效果的算法

   其主要思想是将弱分类器组装成一个强分类器。在PAC(概率近似正确)学习框架下,则一定可以将弱分类器组装成一个强分类器。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值