决策树基础参考: http://blog.youkuaiyun.com/leiting_imecas/article/details/52950663
本节介绍决策树的究极进化
1. Bagging(bootstrap Aggregation)
bootstrap即拔靴带,帮助提靴的纽带,统计学上称为自住法; aggregating是指聚集. 机器学习的bagging方法指对多个学习器进行独立的学习、最后汇总的方法。
算法流程:
A)从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中)。共进行k轮抽取,得到k个训练集。(k个训练集之间是相互独立的)
B)每次使用一个训练集得到一个模型,k个训练集共得到k个模型。(注:这里并没有具体的分类算法或回归方法,我们可以根据具体问题采用不同的分类或回归方法,如决策树、感知器等)
C)对分类问题:将上步得到的k个模型采用投票的方式得到分类结果;对回归问题,计算上述模型的均值作为最后的结果。(所有模型的重要性相同)
注:Bagging是一种方法,其中的单个模型不一定是决策树,可以是别的分类器。
2. boosting
boosting是增强、强化的意思。boosting算法是指对多个学习器依次进行学习、逐渐增强效果的算法
其主要思想是将弱分类器组装成一个强分类器。在PAC(概率近似正确)学习框架下,则一定可以将弱分类器组装成一个强分类器。