boosting_bagging

本文详细解析了机器学习中的两种重要集成方法——提升法(boosting)和套袋法(bagging)。介绍了这两种方法的基本原理,包括样本权重调整、训练集选择策略以及最终模型的组合方式。同时,对比了它们在样本选择、权重分配、预测函数权重及并行计算能力上的差异。

boosting(提升法)

             对于训练集中的每个样本建立全职W(i),当某个样本被错误分类概率很高时,样本的权重加大;

              在迭代过程中,每一个迭代器都是一个弱分类器,我们需要用某种策略将其组合,作为最终模型。

bagging(套袋法)

             

         从原始样本集随机抽取n个训练样本,共进行k轮抽取,得到k个训练集。(k个训练集之间相互独立,元素可以有重复)
         对于k个训练集,我们训练k个模型
         对于分类问题:由投票表决产生分类结果;对于回归问题:由k个模型预测结果的均值作为最后预测结果。(所有模型的重要性相同)

区别: 

          

                样本选择:Bagging采用的是Bootstrap随机有放回抽样,训练集变化;而Boosting每一轮的训练集是不变的,样本权重变化。
                样本权重:Bagging使用的是均匀取样,每个样本权重相等;Boosting根据错误率调整样本权重,错误率越大的样本权重越大。
                预测函数:Bagging所有的预测函数的权重相等;Boosting中误差越小的预测函数其权重越大。
                并行计算:Bagging各个预测函数可以并行生成;Boosting各个预测函数必须按顺序迭代生成。

1)Bagging + 决策树 = 随机森林

2)AdaBoost + 决策树 = 提升树

3)Gradient Boosting + 决策树 = GBDT

转载于:https://www.cnblogs.com/hapyygril/p/9848845.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值