集成学习——AdaBoost算法的理论与sklearn代码实现

1.集成学习

1.1 概念

  首先介绍一下什么是集成学习(Ensemble Learning),通俗的讲,其思想就是"三个臭皮匠顶个诸葛亮"。在有监督的机器学习任务中,我们往往不容易得到一个完美的模型,这时就可以将几个不那么完美的模型结合起来来完成任务,这也是近年来各种竞赛(如kaggle、天池等)的优秀解决方案所采用的方法。这里的不那么完美的模型我们称为弱模型,多个弱模型结合起来得到的便是强模型。示意图如下:

图1 集成学习思想

  集成学习潜在的思想是即便某一个弱模型得到了错误的预测,其他的弱模型也可以将错误纠正回来。

1.2 学习路线

  集成学习方法大致可以分为两大类,分别为Boosting和Bagging。

  Boosting是将弱模型提升为强模型的算法,其工作机制为:先从初始训练集训练出一个弱模型,再根据此弱模型的表现对训练样本的分布进行调整,使得被此弱模型预测错了的样本得到更多的关注,然后利用调整过的样本来训练下一个弱模型,如此重复进行,直到弱模型的数目达到了事先指定的值或者指标达到预期,最后将这些弱模型进行加权求和便得到了强模型。

  Bagging算法的工作机制为:通过自主采样法(bootstrap sampling),即有放回的采样,对初始训练数据集进行采样,得到若干个样本子集,然后每个子集用来训练一个弱模型,最后再将这些弱模型结合为强模型。在分类任务中,Bagging算法通过简单投票法来输出样本的类别,即少数服从多数的原则;在回归任务中,则是通过对每个弱模型的输出进行平均来作为强模型的输出。

  通过对比Boosting算法与Bagging算法的工作机制可以发现:Boosting算法生成的弱模型有很强的依赖关系,且弱模型是串行生成的;而Bagging算法生成的弱模型不存在强依赖关系且可以并行生成。常见的Boosting算法有AdaBoost、GBDT、XGBoost和LightGBM等,最有代表性的Bagging算法为随机森林,如下图所示:

图2 学习路线

后面文章的内容将按上图由上至下的顺序展开。接下来我们就先介绍著名的AdaBoost算法。

2.AdaBoost算法

  AdaBoost是”Adaptive Boosting“(自适应增强)的缩写,由Yoav Freund和Robert Schapire在1995年提出。这里的自适应指的就是:前一个弱模型预测错误的样本的权值会增大,预测正确了的样本的权重会减小,即样本的权重可以自适应地更新,权值更新后的样本再次被用来训练下一个新的弱分类器。其实AdaBoost的思想在现实生活中也有体现,比如高考之前的刷题过程,拿到一套试卷,第一遍做的时候对每个题的关注程度都是相同的,后来再做第二遍第三遍的时候,往往都是着重关注第一次做错的题,而第一遍做对了的题看一遍就跳过了。

  下面以二类分类任务为例来讲解AdaBoost的原理。先给出AdaBoost的算法流程:

  • 输入:训练数据集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } T=\{(\boldsymbol{x}_1,y_1),(\boldsymbol{x}_2,y_2),...,(\boldsymbol{x}_N,y_N)\} T={(x1,y1),(x2,y2),...,(xN,yN)},其中 x i ∈ R n \boldsymbol{x}_i \in R^n xiRn y i ∈ { − 1 , + 1 } y_i \in \{-1,+1\} yi{1,+1};弱学习算法。
  • 输出:强分类器 G ( x ) G(x) G(x)

(1) 初始化训练数据的权值分布:
D 1 = ( w 11 , w 12 , . . . , w 1 N ) = ( 1 N , 1 N , . . . , 1 N ) D_1=(w_{11},w_{12},...,w_{1N})=(\frac{1}{N},\frac{1}{N},...,\frac{1}{N}) D1=(w11,w12,...,w1N)=(N1,N1,...,N1)
(2) 对 m = 1 , 2 , . . . , M m=1,2,...,M m=1,2,...,M

  (a)使用具有权值分布 D m D_m Dm的训练数据集学习,得到基本分类器 G m ( x ) G_m(\boldsymbol{x}) Gm(x)

  (b)计算 G m ( x ) G_m(\boldsymbol{x}) Gm(x)在训练数据集上的分类误差率:
e m = ∑ i = 1 N P ( G m ( x i ) ≠ y i ) = ∑ i = 1 N w m i I ( G m ( x i ) ≠ y i ) e_m=\sum_{i=1}^{N}P(G_m(\boldsymbol{x}_i) \not = y_i)=\sum_{i=1}^{N}w_{mi}I(G_m(\boldsymbol{x}_i) \not = y_i) em=i=1NP(Gm(xi)=yi)=i=1NwmiI(Gm(xi)=yi)
  ©计算 G m ( x ) G_m(\boldsymbol{x}) Gm(x)在最终的强分类器 G ( x ) G(\boldsymbol{x}) G(x)中的重要程度,即 G m ( x ) G_m(\boldsymbol{x}) Gm(x)的权重系数:
α m = 1 2 ln 1 − e m e m \alpha_m=\frac{1}{2}\text{ln}\frac{1-e_m}{e_m} αm=21lnem1em
  (d)更新训练数据集的权值分布:
D m + 1 = ( w m + 1 , 1 , w m + 1 , 2 , . . . , w m + 1 , N ) D_{m+1}=(w_{m+1,1},w_{m+1,2},...,w_{m+1,N}) Dm+1=(wm+1,1,wm+1,2,...,wm+1,N)
w m + 1 , i = w m i Z m exp ( − α m y i G m ( x i ) ) w_{m+1,i}=\frac{w_{mi}}{Z_m}\text{exp}(-\alpha_my_iG_m(\boldsymbol{x}_i)) wm+1,i=Zmwmiexp(αmyiGm(xi))
其中 Z m Z_m Zm是规范化因子,它使 D m + 1 D_{m+1} Dm+1成为一个概率分布:
Z m = ∑ i = 1 N w m i exp ( − α m y i G m ( x i ) ) Z_m=\sum_{i=1}^{N}w_{mi}\text{exp}(-\alpha_my_iG_m(\boldsymbol{x}_i)) Zm=i=1Nwmiexp(αmyiGm(xi))
(3) 构建基本分类器的线性组合:
f ( x ) = ∑ i = 1 M α m G m ( x ) f(\boldsymbol{x})=\sum_{i=1}^{M}\alpha_mG_m(\boldsymbol{x}) f(x)=i=1MαmGm(x)
得到最终的强分类器:
G ( x ) = sign ( f ( x ) ) = sign ( ∑ i = 1 M α m G m ( x ) ) G(\boldsymbol{x})=\text{sign}\big(f(x)\big)=\text{sign}\big(\sum_{i=1}^{M}\alpha_mG_m(\boldsymbol{x})\big) G(x)=sign(f(x))=sign(i=1MαmGm(x))
还是以一个例子来熟悉此算法过程,例子来源于李航《统计学习方法》。
AdaBoost例1---1
AdaBoost例1---2
AdaBoost例1---3
AdaBoost例1---4

对于上述的算法过程,我们需要搞清楚3个问题

(1)为什么弱分类器 G m ( x ) G_m(\boldsymbol{x}) Gm(x)的权重系数公式为 α m = 1 2 ln 1 − e m e m \alpha_m=\frac{1}{2}\text{ln}\frac{1-e_m}{e_m} αm=21lnem1em?,这个式子是怎么得到的?

(2)为什么训练数据集的权值更新公式为 w m + 1 , i = w m i Z m exp ( − α m y i G m ( x i ) ) w_{m+1,i}=\frac{w_{mi}}{Z_m}\text{exp}(-\alpha_my_iG_m(\boldsymbol{x}_i)) wm+1,i=Zmwmiexp(αmyiGm(xi))?

(3)这样设置弱分类器的权重系数和权值更新公式真的能使模型的训练误差越来越小吗?

接下来我们将给出这3个问题的证明。

3.AdaBoost算法的损失函数优化

  首先给出损失函数的推导过程,我们知道初始训练数据集中第 i i i个样本的权值 w 1 i = 1 N w_{1i}=\frac{1}{N} w1i=N1,根据权值更新公式,则经过第一个弱分类器 G 1 ( x ) G_1(\boldsymbol{x}) G1(x)后,权值更新为 w 2 i = 1 N ⋅ exp ( − α 1 y i G 1 ( x i ) ) Z 1 w_{2i}=\frac{1}{N} \cdot \frac{\text{exp}(-\alpha_1y_iG_1(\boldsymbol{x}_i))}{Z_1} w2i=N1Z1exp(α1yiG1(xi));经过第 M M M个弱分类器 G M ( x ) G_M(\boldsymbol{x}) GM(x)h后,权值更新为:
w M + 1 , i = 1 N ⋅ exp ( − α 1 y i G 1 ( x i ) ) Z 1 ⋅ . . . ⋅ exp ( − α M y i G M ( x i ) ) Z M w_{M+1,i}=\frac{1}{N} \cdot \frac{\text{exp}(-\alpha_1y_iG_1(\boldsymbol{x}_i))}{Z_1} \cdot ... \cdot \frac{\text{exp}(-\alpha_My_iG_M(\boldsymbol{x}_i))}{Z_M} wM+1,i=N1Z1exp(α1yiG1(xi))...ZMexp(αMyiGM(xi))
= exp ( − ( α 1 y i G 1 ( x i ) + . . . + α M y i G M ( x i ) ) ) N ∏ t = 1 M Z m =\frac{\text{exp}\bigg(-\big(\alpha_1y_iG_1(\boldsymbol{x}_i)+...+\alpha_My_iG_M(\boldsymbol{x}_i)\big)\bigg)}{N\prod_{t=1}^{M}Z_m} =Nt=1MZmexp((α1yiG1(xi)+...+αMyiGM(xi)))
= exp ( − y i ∑ m = 1 M α m G m ( x i ) ) N ∏ m = 1 M Z m =\frac{\text{exp}\bigg(-y_i\sum_{m=1}^{M}\alpha_mG_m(\boldsymbol{x}_i)\bigg)}{N\prod_{m=1}^{M}Z_m} =Nm=1MZmexp(yim=1MαmGm(xi))
= exp ( − y i f ( x i ) ) N ∏ m = 1 M Z m =\frac{\text{exp}\bigg(-y_if(\boldsymbol{x}_i)\bigg)}{N\prod_{m=1}^{M}Z_m} =Nm=1MZmexp(yif(xi))
通过上面的结果我们可以得到:
exp ( − y i f ( x i ) ) N = w M + 1 , i ∏ m = 1 M Z m \frac{\text{exp}\bigg(-y_if(\boldsymbol{x}_i)\bigg)}{N}=w_{M+1,i}\prod_{m=1}^{M}Z_m Nexp(yif(xi))=wM+1,im=1MZm
这个式子后面马上就会用到。我们知道最终的强分类器的表达式为: G ( x ) = sign ( f ( x ) ) G(\boldsymbol{x})=\text{sign}(f(\boldsymbol{x})) G(x)=sign(f(x)),如果第 i i i个样本分类错误,即: G ( x i ) ≠ y i G(\boldsymbol{x}_i) \not = y_i G(xi)=yi,这等价于 y i f ( x i ) ≤ 0 y_if(\boldsymbol{x}_i) \le 0 yif(xi)0,也就是说,当第 i i i个样本被分类错误时,有:
exp ( − y i f ( x i ) ) ≥ 1 ≥ I ( G ( x i ) ≠ y i ) \text{exp}\big(-y_if(\boldsymbol{x}_i)\big) \ge 1 \ge I(G(\boldsymbol{x}_i) \not = y_i) exp(yif(xi))1I(G(xi)=yi)
而强分类器的训练误差为:
1 N ∑ i = 1 N I ( G ( x i ) ≠ y i ) \frac{1}{N}\sum_{i=1}^{N}I(G(\boldsymbol{x}_i) \not = y_i) N1i=1NI(G(xi)=yi)
于是我们可以得到:
1 N ∑ i = 1 N I ( G ( x i ) ≠ y i ) ≤ ∑ i = 1 N exp ( − y i f ( x i ) ) N \frac{1}{N}\sum_{i=1}^{N}I(G(\boldsymbol{x}_i) \not = y_i) \le \sum_{i=1}^{N}\frac{\text{exp}\bigg(-y_if(\boldsymbol{x}_i)\bigg)}{N} N1i=1NI(G(xi)=yi)i=1NNexp(yif(xi))
= ∑ i = 1 N w M + 1 , i ∏ m = 1 M Z m = ∏ m = 1 M Z m = \sum_{i=1}^{N}w_{M+1,i}\prod_{m=1}^{M}Z_m=\prod_{m=1}^{M}Z_m =i=1NwM+1,im=1MZm=m=1MZm
最后一个的等号成立是因为所有样本的权值相加为1。这就说明了分类器的训练误差上界为 ∏ m = 1 M Z m \prod_{m=1}^{M}Z_m m=1MZm,我们只要保证误差上界在训练过程中一直减小也就保证了误差是一直减小的。正常来讲,我们应该选择 ∏ m = 1 M Z m \prod_{m=1}^{M}Z_m m=1MZm来作为损失函数,但是由于每一个弱分类器都是串行生成的,所以我们没办法同时得到 M M M个弱分类器,也就无法利用这个损失函数。AdaBoost是对此进行了近似,只要保证每一个分类器的 Z m Z_m Zm最小,那么最终的 ∏ m = 1 M Z m \prod_{m=1}^{M}Z_m m=1MZm也就达到了最小。也就是说,AdaBoost优化的损失函数即为:
Z m = ∑ i = 1 N w m i exp ( − α m y i G m ( x i ) ) Z_m=\sum_{i=1}^{N}w_{mi}\text{exp}(-\alpha_my_iG_m(\boldsymbol{x}_i)) Zm=i=1Nwmiexp(αmyiGm(xi))
  有了损失函数之后,我们就可以来解决上文所提到的三个问题了。

问题1:为什么弱分类器 G m ( x ) G_m(\boldsymbol{x}) Gm(x)的权重系数公式为 α m = 1 2 ln 1 − e m e m \alpha_m=\frac{1}{2}\text{ln}\frac{1-e_m}{e_m} αm=21lnem1em?,这个式子是怎么得到的?

在此问题中,首先需要明确我们的目标是最小化损失函数 Z m Z_m Zm,即:
α m , G m ( x ) min ∑ i = 1 N w m i exp ( − α m y i G m ( x i ) ) _{\alpha_m,G_m(\boldsymbol{x})}^\text{min}\sum_{i=1}^{N}w_{mi}\text{exp}(-\alpha_my_iG_m(\boldsymbol{x}_i)) αm,Gm(x)mini=1Nwmiexp(αmyiGm(xi))
因为分类器的输出只有两种结果,要么分对,要么分错,即:
y i G m ( x i ) = { + 1 , if y i = G m ( x i ) − 1 , if y i ≠ G m ( x i ) y_iG_m(\boldsymbol{x}_i)= \begin{cases} +1 ,&\text{if} \enspace y_i = G_m(\boldsymbol{x}_i) \\ -1 ,&\text{if} \enspace y_i \not = G_m(\boldsymbol{x}_i) \end{cases} yiGm(xi)={+1,1,ifyi=Gm(xi)ifyi=Gm(xi)
所以可以将目标函数改写为:
α m , G m ( x ) min ∑ y i = G m ( x i ) w m i exp ( − α m ) + ∑ y i ≠ G m ( x i ) w m i exp ( α m ) _{\alpha_m,G_m(\boldsymbol{x})}^\text{min}\sum_{y_i = G_m(\boldsymbol{x}_i)}w_{mi}\text{exp}(-\alpha_m)+\sum_{y_i \not = G_m(\boldsymbol{x}_i)}w_{mi}\text{exp}(\alpha_m) αm,Gm(x)minyi=Gm(xi)wmiexp(αm)+yi=Gm(xi)wmiexp(αm)
α m \alpha_m αm求导数,并令导数等于0:
− exp ( − α m ) ∑ y i = G m ( x i ) w m i + exp ( α m ) ∑ y i ≠ G m ( x i ) w m i = 0 -\text{exp}(-\alpha_m)\sum_{y_i = G_m(\boldsymbol{x}_i)}w_{mi}+\text{exp}(\alpha_m)\sum_{y_i \not = G_m(\boldsymbol{x}_i)}w_{mi}=0 exp(αm)yi=Gm(xi)wmi+exp(αm)yi=Gm(xi)wmi=0
两边同乘 exp ( α m ) \text{exp}(\alpha_m) exp(αm)并移项:
exp ( 2 α m ) ∑ y i ≠ G m ( x i ) w m i = ∑ y i = G m ( x i ) w m i \text{exp}(2\alpha_m)\sum_{y_i \not = G_m(\boldsymbol{x}_i)}w_{mi}=\sum_{y_i = G_m(\boldsymbol{x}_i)}w_{mi} exp(2αm)yi=Gm(xi)wmi=yi=Gm(xi)wmi
exp ( 2 α m ) = ∑ y i = G m ( x i ) w m i ∑ y i ≠ G m ( x i ) w m i \text{exp}(2\alpha_m)=\frac{\sum_{y_i = G_m(\boldsymbol{x}_i)}w_{mi}}{\sum_{y_i \not = G_m(\boldsymbol{x}_i)}w_{mi}} exp(2αm)=yi=Gm(xi)wmiyi=Gm(xi)wmi
= 1 − ∑ y i ≠ G m ( x i ) w m i ∑ y i ≠ G m ( x i ) w m i =\frac{1-\sum_{y_i \not = G_m(\boldsymbol{x}_i)}w_{mi}}{\sum_{y_i \not = G_m(\boldsymbol{x}_i)}w_{mi}} =yi=Gm(xi)wmi1yi=Gm(xi)wmi
= 1 − ∑ i = 1 N w m i I ( G m ( x i ) ≠ y i ) ∑ i = 1 N w m i I ( G m ( x i ) ≠ y i ) =\frac{1-\sum_{i=1}^{N}w_{mi}I(G_m(\boldsymbol{x}_i) \not = y_i)}{\sum_{i=1}^{N}w_{mi}I(G_m(\boldsymbol{x}_i) \not = y_i)} =i=1NwmiI(Gm(xi)=yi)1i=1NwmiI(Gm(xi)=yi)
= 1 − e m e m = \frac{1-e_m}{e_m} =em1em
所以使目标函数最小的 α m \alpha_m αm就是:
α m ∗ = 1 2 ln 1 − e m e m \alpha_m^*=\frac{1}{2}\text{ln}\frac{1-e_m}{e_m} αm=21lnem1em
问题2:为什么训练数据集的权值更新公式为 w m + 1 , i = w m i Z m exp ( − α m y i G m ( x i ) ) w_{m+1,i}=\frac{w_{mi}}{Z_m}\text{exp}(-\alpha_my_iG_m(\boldsymbol{x}_i)) wm+1,i=Zmwmiexp(αmyiGm(xi))?

这个问题的证明是从前向分步算法的角度来证明的,AdaBoost算法是前向分步算法的一个特例。证明过程参考李航《统计学习方法》P164。

问题3:这样设置弱分类器的权重系数和权值更新公式真的能使模型的训练误差越来越小吗?

为了证明方便,我们新定义一个变量 r r r,其与分类误差率的关系为:
r = 1 2 − e m r=\frac{1}{2}-e_m r=21em
我们前面已经给出了每一个弱分类器的损失函数 Z m Z_m Zm,即:
Z m = ∑ i = 1 N w m i exp ( − α m y i G m ( x i ) ) Z_m=\sum_{i=1}^{N}w_{mi}\text{exp}(-\alpha_my_iG_m(\boldsymbol{x}_i)) Zm=i=1Nwmiexp(αmyiGm(xi))
= ∑ y i = G m ( x i ) w m i exp ( − α m ) + ∑ y i ≠ G m ( x i ) w m i exp ( α m ) =\sum_{y_i = G_m(\boldsymbol{x}_i)}w_{mi}\text{exp}(-\alpha_m)+\sum_{y_i \not = G_m(\boldsymbol{x}_i)}w_{mi}\text{exp}(\alpha_m) =yi=Gm(xi)wmiexp(αm)+yi=Gm(xi)wmiexp(αm)
= ( 1 − e m ) exp ( − α m ) + e m exp ( α m ) =(1-e_m)\text{exp}(-\alpha_m)+e_m\text{exp}(\alpha_m) =(1em)exp(αm)+emexp(αm)
α m ∗ = 1 2 ln 1 − e m e m \alpha_m^*=\frac{1}{2}\text{ln}\frac{1-e_m}{e_m} αm=21lnem1em r = 1 2 − e m r=\frac{1}{2}-e_m r=21em代入上式可得:
Z m = ( 1 − e m ) e m 1 − e m + e m 1 − e m e m Z_m=(1-e_m)\sqrt{\frac{e_m}{1-e_m}}+e_m\sqrt{\frac{1-e_m}{e_m}} Zm=(1em)1emem +emem1em
= 2 e m ( 1 − e m ) =2\sqrt{e_m(1-e_m)} =2em(1em)
= 1 − 4 r 2 =\sqrt{1-4r^2} =14r2
由于 r = 1 2 − e m r=\frac{1}{2}-e_m r=21em,所以有 − 1 2 ≤ r ≤ 1 2 -\frac{1}{2} \le r \le \frac{1}{2} 21r21,所以 1 − 4 r 2 ≤ 1 \sqrt{1-4r^2} \le 1 14r2 1,即 Z m ≤ 1 Z_m \le 1 Zm1。我们在前面已经推导了最后强分类器的训练误差上界其实为 ∏ m = 1 M Z m \prod_{m=1}^{M}Z_m m=1MZm,此处我们又证明了每一个 Z m Z_m Zm都是小于等于1的,所以,这样设置弱分类器的权重系数,随着弱分类器的增多,训练误差上界确实是越来越小的。

4. AdaBoost的sklearn实现

首先导入要用的包:

import numpy as np
import pandas as pd
import seaborn as sns
from sklearn.preprocessing import LabelEncoder
from sklearn.ensemble import AdaBoostClassifier
from sklearn.tree import DecisionTreeClassifier
import matplotlib.pyplot as plt
%matplotlib inline

然后加载数据集,使用的还是iris数据集:

iris = sns.load_dataset("iris")
iris

图3 iris数据

iris数据共3个类别,每个类别有50个样本,且有4个特征。为了做二分类并便于可视化,这里只使用了前100个样本和前两个特征。

获得所需数据并标签进行编码:

X = iris.iloc[:100].iloc[:,[0,1]]
y = iris.iloc[:100].iloc[:,-1]
encoder = LabelEncoder()
y = encoder.fit_transform(y) #将标签设置为0,1, 2样式

画出散点图:

X = np.array(X)
y = np.array(y)
plt.scatter(X[:,0],X[:,1],c=y)
plt.show()

图4 数据可视化
定义弱分类器:

#设定弱分类器CART,每个树的最大深度设置为2
weakClassifier=DecisionTreeClassifier(max_depth=2)

构建AdaBoost分类模型并进行训练

clf=AdaBoostClassifier(base_estimator=weakClassifier,algorithm='SAMME',n_estimators=300,learning_rate=0.8)
clf.fit(X, y)

生成测试数据:

x1_min=X[:,0].min()-1
x1_max=X[:,0].max()+1
x2_min=X[:,1].min()-1
x2_max=X[:,1].max()+1
x1_,x2_=np.meshgrid(np.arange(x1_min,x1_max,0.02),np.arange(x2_min,x2_max,0.02))

得出预测结果并可视化:

y_=clf.predict(np.c_[x1_.ravel(),x2_.ravel()]) # ravel函数将二维数组扁平化为一维
y_=y_.reshape(x1_.shape)
plt.contourf(x1_,x2_,y_,cmap=plt.cm.Paired)
plt.scatter(X[:,0],X[:,1],c=y)
plt.show()

图5 分类结果可视化

5.补充

  本文只是针对分类任务来讲解AdaBoost,AdaBoost也是可以做回归的。前面还有一个问题没有提到,就是弱学习器的类型。理论上任何学习器都可以用于Adaboost.但一般来说,使用最广泛的Adaboost弱学习器是决策树和神经网络。对于决策树,Adaboost分类用了CART分类树,而Adaboost回归用了CART回归树。上面代码中使用的弱分类器就是CART分类决策树。

AdaBoost算法的优缺点

优点:

  • Adaboost作为分类器时,分类精度很高;

  • 在Adaboost的框架下,可以使用各种回归分类模型来构建弱学习器,非常灵活;

  • 作为简单的二元分类器时,构造简单,结果可理解;

  • 不容易发生过拟合。

缺点:

  • 对异常样本敏感,异常样本在迭代中可能会获得较高的权重,影响最终的强学习器的预测准确性。

6.参考资料

1.李航《统计学习方法》

2.周志华《机器学习》

3.https://www.cnblogs.com/pinard/p/6133937.html#!comments

4.https://www.bilibili.com/video/BV1mt411a7FT?p=4

5.https://www.bilibili.com/video/BV1Ca4y1t7DS?p=7

6.https://github.com/BackyardofAbela/EnsembleLearning

推荐阅读:
决策树(2)——CART算法
决策树(1)——ID3算法与C4.5算法的理论基础与python实现

公众号:MyLearningNote
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

llfighting2018

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值