目 录
1 决策树
决策树(decision tree)是一种基本的分类与回归方法,其主要优点是模型具有可读性,分类速度快。学习时利用损失函数(正则化的极大似然函数)最小化的原则建立决策树模型。预测时,对新的数据,利用决策树模型进行分类。根据一组训练数据学习的决策树不是唯一的,与训练数据不相矛盾的(能对训练数据进行正确分类)决策树可能有多个,也可能一个也没有。我们需要的是一个与训练数据矛盾较小(训练误差小)的决策树,同时具有很好的泛化能力(测试误差小)。
决策树学习通常包括 3 个步骤:特征选择、决策树的生成和决策树的修剪。其中前两个步骤是几乎同时进行的。在每一步中,我们构建根节点,选择最优特征,并根据该特征对训练数据集进行划分(对应于模型的局部最优),使得各个子集有一个在当前条件下最好的分类,同时完成该层决策树的构建(如果这些自己已经能够被基本正确分类,那么构建叶结点,否则继续对其进行分割)。如此递归地进行下去,直到所有训练数据自己被基本正确分类,或者没有合适的特征为止。这样就生成了一棵决策树。之后我们需要对已生成的树进行自上而下的剪枝,将树变得简单,从而具有更好的泛化能力(对应于模型的全局最优)。具体地,就是剪掉过于细分的叶节点,使其回退到父结点,甚至更高的结点,然后将父结点或者更高的结点改为新的叶结点。
1.1 特征选择
数据有很多特征,那么在每一步中我们选择哪个特征?选择了特征之后又该如何在该特征上进行划分?这就是特征选择要做的事情。特征选择在预选区队训练数据有分类能力(与随机分类的结果有较大差异)的特征。特征选择有许多标准,我们根据这些标准对决策树学习的算法进行分类。比如ID3对应的标准是信息增益、C4.5对应的标准是信息增益比、CART对应的标准是基尼指数。下面给出这些标准的定义并结合实例进行说明。
1.1.1 基础定义
熵:熵(entropy)表示随机变量不确定性的度量,设 X X X 是一个取有限个值的离散随机变量,其概率分布为
P ( X = x i ) = p i , i = 1 , 2 , ⋯   , n P(X = x_i) = p_i, \quad i = 1, 2, \cdots, n P(X=xi)=pi,i=1,2,⋯,n
则随机变量 X X X 的熵定义为:
H ( X ) = − ∑ i = 1 n p i log p i \color{Red}{H(X) = - \sum_{i = 1}^{n} p_i \log p_i} H(X)=−i=1∑npilogpi
若 p i = 0 p_i = 0 pi=0 ,则定义 0 log 0 = 0 0 \log 0 = 0 0log0=0 。通常式中对数以 2 为底,这时熵的单位称作比特(bit),以 e e e 和 10 为底的熵的单位称作纳特(nat)和哈托特(hat),因为熵只依赖于 X X X 的分布,因此也可写作 H ( p ) H(p) H(p) 。熵越大,随机变量的不确定性就越大。若熵中的概率由估计得到(特别是极大似然估计),这时熵称为经验熵(empirical entropy)。下图展示了二值随机变量熵 H ( p ) H(p) H(p) 随概率 p p p 变化的曲线。
条件熵:条件熵(conditional entropy) H ( Y ∣ X ) H(Y|X) H(Y∣X) 表示在已知随机变量 X X X 的条件下随机变量 Y Y Y 的不确定性。随机变量 X X X 给定的条件下随机变量 Y Y Y 的条件熵定义为:
H ( Y ∣ X ) = ∑ i = 1 n p i H ( Y ∣ X = x i ) \color{Red}{H(Y|X) = \sum_{i = 1}^{n} p_i H(Y|X = x_i)} H(Y∣X)=i=1∑npiH(Y∣X=xi)
当条件熵中的概率由估计(特别是极大似然估计)得到时称为经验条件熵(empirical conditional entropy)。
信息增益:信息增益(information gain)表示得知特征 X X X 的信息而使得类 Y Y Y 的信息的不确定性减少的程度,又称为互信息(mutual information)。特征 A A A 对训练数据集 D D D 的信息增益 g ( D , A ) g(D,A) g(D,A) ,定义为集合 D D D 的经验熵 H ( D ) H(D) H(D) 与特征 A A A 给定条件下 D D D 的经验条件熵 H ( D ∣ A ) H(D|A) H(D∣A) 之差,即
g ( D , A ) = H ( D ) − H ( D ∣ A ) \color{Red}{g(D, A) = H(D) - H(D|A)} g(D,A)=H(D)−H(D∣A)
信息增益比:特征 A A A 对训练数据集 D D D 的信息增益比 g R ( D , A ) g_R (D,A) gR(D,A) 定义为其信息增益 g ( D , A ) g(D,A) g(D,A) 与训练数据集 D D D 关于特征 A A A 的值的熵 H A ( D ) H_A (D) HA(D) 之比,即
g R ( D , A ) = g ( D , A ) H A ( D ) \color{Red}{g_R (D, A) = \frac{g(D, A)}{H_A (D)}} gR(D,A)=HA(D)g(D,A)
其中, H A ( D ) = − ∑ j = 1 S ∣ D i ∣ ∣ D ∣ log 2 ∣ D i ∣ ∣ D ∣ H_A (D) = - \sum_{j = 1}^{S} \frac{|D_i|}{|D|} \log_2 \frac{|D_i|}{|D|} HA(D)=−∑j=1S∣D∣∣Di∣log2∣D∣∣Di∣ , S S S 是特征 A A A 取值的个数
以信息增益作为划分训练数据集的特征,存在偏向于选择取值较多的特征的问题,比如在学生信息中我们用学号作为特征,那么显然一次性就可以划分结束,但是这样的结果没有实际意义。使用信息增益比可以对这一问题进行校正
基尼指数:分类问题中,假设有 K K K 个类,样本点属于第 k k k 类的概率为 p k p_k pk ,则概率分布的基尼指数(Gini index)定义为
G i n i ( p ) = ∑ k = 1 K p k ( 1 − p k ) = 1 − ∑ k = 1 K p k 2 \color{Red}{Gini(p) = \sum_{k = 1}^{K} p_k (1 - p_k) = 1 - \sum_{k = 1}^{K}p_k^2} Gini(p)=k=1∑Kpk(1−pk)=1−k=1∑Kpk2
对于给定的样本集合 D D D ,其基尼指数为
G i n i ( D ) = 1 − ∑ k = 1 K ( ∣ C k ∣ ∣ D ∣ ) 2 \color{Red}{Gini(D) = 1 - \sum_{k = 1}^{K} \left(\frac{|C_k|}{|D|}\right)^2} Gini(D)=1−k=1∑K(∣D∣∣Ck∣)2
其中, C k C_k Ck 是 D D D 中属于第 k k k 类的样本子集。
如果样本集合 D D D 根据特征 A A A 是否取某一可能值 a a a 被分割成 D 1 D_1 D1 和 D 2 D_2 D2 两部分,即
D 1 = { ( x , y ) ∈ D ∣ A ( x ) = a } , D 2 = D − D 1 D_1 = \{(x, y)\in D| A(x) = a\}, \ D_2 = D - D_1 D1={ (x,y)∈D∣A(x)=a}, D2=D−D1
则在特征 A A A 的条件下,集合 D D D 的基尼指数定义为
G i n i ( D , A ) = ∣ D 1 ∣ ∣ D ∣ G i n i ( D 1 ) + ∣ D 2 ∣ ∣ D ∣ G i n i ( D 2 ) \color{Red}{Gini(D, A) = \frac{|D_1|}{|D|} Gini(D_1) + \frac{|D_2|}{|D|} Gini(D_2)} Gini(D,A)=∣D∣∣D1∣Gini(D1)+∣D∣∣D2∣Gini(D2)
直观来说,基尼指数反映了从数据集随机抽取两个样本,其类别标记不一致的概率,因此基尼指数越小,数据集纯度越高,基尼指数越大,数据集的不确定性越大。基尼指数 G i n i ( D ) Gini(D) Gini(D) 表示集合 D D D 的不确定性,基尼指数 G ( D , A ) G(D, A) G(D,A) 表示经 A = a A = a A=a 分割后集合 D D D 的不确定性。基尼指数越大,样本集合的不确定性也就越大。下图展示了二分类问题中,基尼指数 G i n i ( p ) Gini(p) Gini(p) 、熵之半 1 2 H ( p ) \frac{1}{2}H(p) 21H(p) 和分类误差率关于概率 p p p 的关系
1.1.2 最优特征标准
-
ID3:选择信息增益最大的特征作为最优特征
-
C4.5:选择信息增益比最大的特征作为最优特征
-
CART:选择基尼指数最小的特征及其对应的切分点作为最优特征与最优切分点
1.2 树的生成
1.2.1 ID3 算法
输入:训练数据集 D D D ,特征集 A A A ,阈值 ϵ \epsilon ϵ
输出:决策树 T T T
(1) 若 D D D 中所有实例属于同一类 C k C_k Ck ,则 T T T 为单结点树,并将类 C k C_k Ck 作为该结点的类标记,返回 T T T ;
(2) 若 A = ∅ A = \varnothing A=∅ ,则 T T T 为单结点树,并将 D D D 中实例数最大的类 C k C_k Ck 作为该结点的类标记,返回 T T T ;
(3) 否则,计算 A A A 中各特征对 D D D 的信息增益,选择信息增益最大的特征 A g A_g Ag ;
(4) 如果 A g A_g Ag 的信息增益小于阈值 ϵ \epsilon ϵ ,则设置 T T T 为单结点树,并将 D D D 中实例数最大的类 C k C_k Ck 作为该结点的类标记,返回 T T T ;
(5) 否则,对 A g A_g Ag 的每一个可能值 a i a_i ai ,依 A g = a i A_g = a_i Ag=ai 将 D D D 分割为若干非空子集 D i D_i Di ,将 D i D_i Di 中实例数最大的类作为类标记,构建子结点,由结点及其子结点构成树 T T T ,返回 T T T ;
(6) 对第 i i i 个子结点,以 D i D_i Di 为训练集,以 A − A g A - {A_g} A−Ag 为特征集,递归地调用步(1)~步(5),得到子树 T i T_i Ti ,返回 T i T_i Ti
1.2.2 C4.5 算法
输入:训练数据集 D D D ,特征集 A A A ,阈值 ϵ \epsilon ϵ
输出:决策树 T T T
(1) 若 D D D 中所有实例属于同一类 C k C_k Ck ,则 T T T 为单结点树,并将类 C k C_k Ck 作为该结点的类标记,返回 T T T ;
(2) 若 A = ∅ A = \varnothing A=∅ ,则 T T T 为单结点树,并将 D D D 中实例数最大的类 C k C_k Ck 作为该结点的类标记,返回 T T T ;
(3) 否则,计算 A A A 中各特征对 D D D 的信息增益比,选择信息增益比最大的特征 A g A_g Ag ;
(4) 如果 A g A_g Ag 的信息增益比小于阈值 ϵ \epsilon ϵ ,则设置 T T T 为单结点树,并将 D D D 中实例数最大的类 C k C_k Ck 作为该结点的类标记,返回 T T T ;
(5) 否则,对 A g A_g Ag 的每一个可能值 a i a_i ai ,依 A g = a i A_g = a_i Ag=ai 将 D D D 分割为若干非空子集 D i D_i Di ,将 D i D_i Di 中实例数最大的类作为类标记,构建子结点,由结点及其子结点构成树 T T T ,返回 T T T ;
(6) 对第 i i i 个子结点,以 D i D_i Di 为训练集,以 A − A g A - {A_g} A−Ag 为特征集,递归地调用步(1)~步(5),得到子树 T i T_i Ti ,返回 T i T_i Ti
1.2.2.1 如果特征是连续的
在C4.5中,对于连续型特征 x ( j ) x^{(j)} x(j) 采取了离散化处理(具体为二值化处理),比如某连续型特征在数据集上的取值从小到大为 { a 1 , a 2 , ⋯   , a n } \{ a_1, a_2, \cdots, a_n\} { a1,a2,⋯,an},可以在每两个值之间选择一个切分点 b b b(可以是左闭右开区间中任意一个值),这样得到了一个切分点集合 { b 1 , b 2 , ⋯   , b ) n − 1 } \{ b_1, b_2, \cdots, b){n - 1}\} { b1,b2,⋯,b)n−1}。基于 b i b_i bi 我们把该特征划分为了两个部分 D − = { x ∣ x ( j ) ≤ b i } D^{-} = \{x|x^{(j)} \le b_i\} D−={ x∣x(j)≤bi} 和 D + = { x ∣ x ( j ) > b i } D^{+} = \{x|x^{(j)} \gt b_i\} D+={ x∣x(j)>bi}。于是我们对每个 b i b_i bi 求信息增益(比),选择信息增益(比)最大的作为最优切分点。另外不同于离散型特征只作一次划分,可以对连续型属性进行多次划分,也就是说连续型特征可以多次使用。
1.2.2.2 如果数据中有缺失值
当缺失值较少时,可以直接忽略有缺失值的样本,但是当缺失值较多时就不能忽略。对于含有缺失值的样本有两种情况:(1) 特征值缺失;(2) 标签值缺失。在C4.5中,对两种情况做如下处理:
特征值缺失:我们假设特征 x ( j ) x^{(j)} x(j) 含有缺失值,且未缺失部分的样本数据集为 D ~ \tilde{D} D~,定义
ρ = ∣ D ~ ∣ ∣ D ∣ \rho = \frac{|\tilde{D}|}{|D|} ρ=∣D∣∣D~∣
p ~ k = D ~ k ∣ D ~ ∣ , k = 1 , 2 , ⋯   , K \tilde{p}_k = \frac{\tilde{D}_k}{|\tilde{D}|}, \quad k = 1, 2, \cdots, K p~k=∣D~∣D~k,k=1,2,⋯,K
r ~ l = D ~ l ∣ D ~ ∣ , l = 1 , 2 , ⋯   , S j \tilde{r}_l = \frac{\tilde{D}_l}{|\tilde{D}|}, \quad l = 1, 2, \cdots, S_j r~l=∣D~∣D~l,l=1,2,⋯,Sj
其中 ρ \rho ρ 表示完整数据的比例。 D ~ k \tilde{D}_k D~k 表示完整数据中标签为第 k k k 类的样本数据集,所以 p ~ k \tilde{p}_k p~k 表示标签为第 k k k 类的样本在完整数据集中的比例。 D ~ l \tilde{D}_l D~l 表示特征 x ( j ) x^{(j)} x(j) 取值为 l l l 的数据集, S j S_j Sj 是特征 x ( j ) x^{(j)} x(j) 的取值个数,所以 r ~ l \tilde{r}_l r~l 表示特征 x ( j ) x^{(j)} x(j) 取值为 l l l 的样本在完整数据集中的比例。有了这些定义我们可以对信息增益公式做一些修改:
g ( D , x ( j ) ) = ρ ( H ( D ~ ) − ∑ l = 1 S j r ~ l H ( D ~ l ) ) g(D, x^{(j)}) = \rho \left( H(\tilde{D}) - \sum_{l = 1}^{S_j}\tilde{r}_l H(\tilde{D}_l)\right) g(D,x(j))=ρ⎝⎛H(D~)−l=1∑Sjr~lH(D~l)⎠⎞
总的来说就是单独计算一个特征的信息增益时先考虑其完整数据的信息增益,然后乘一个衡量缺失比例的系数。
标签值缺失:若缺失样本 x \mathcal{x} x 在特征(对所有特征) x ( j ) x^{(j)} x(j) 上的特征值已知,那么将其划分到这个结点上。比如一个样本属性值 x ( 1 ) = x 1 ( 1 ) , x ( 2 ) = x 1 ( 2 ) x^{(1)} = x^{(1)}_1, x^{(2)} = x^{(2)}_1 x(1)=x1(1),x(2)=x1(2),那么将该样本划分到 x ( 1 ) = x 1 ( 1 ) , x ( 2 ) = x 1 ( 2 ) x^{(1)} = x^{(1)}_1, x^{(2)} = x^{(2)}_1 x(1)=x1(1),x(2)=x1(2) 的叶结点,并且样本的权值 w x \mathcal{w}_{\mathcal{x}} wx保持不变。如果同时有某个特征值缺失,比如特征 x ( j ) x^{(j)} x(j) 缺失,那么先将样本点划分到特征 x ( j ) x^{(j)} x(j) 分支后的所有结点中,并且在各结点中的权值变为 r ~ l ⋅ w x \tilde{r}_l \cdot \mathcal{w}_{\mathcal{x}} r~l⋅wx
1.2.3 CART 算法
1.2.3.1 CART 分类
分类与回归树(Classification And Regression Tree,CART)即可用于分类也可用于回归,CART假设决策树是二叉树,内部结点特征的取值为“是”和“否”,左分支是取值为“是”的分支,右分支是取值为“否”的分支。
输入:训练数据集 D D D ,停止计算的条件
输出:CART 决策树
根据训练数据集,从根结点开始,递归地对每个结点进行以下操作,构建二叉决策树:
(1) 设结点的训练数据集为 D D D ,计算现有特征对该数据集的基尼指数 G i n i ( D ) Gini(D) Gini(D) 。此时对每一个特征 A A A ,对其可能取的每一个值 a a a ,根据样本点对 A = a A = a A=a 的测试为“是”或“否”将 D D D 分割成 D 1 D_1 D1 和 D 2 D_2 D2 两部分,然后计算 A = a A = a A=a 时的基尼指数 G i n i ( D , A ) Gini(D, A) Gini(D,A) ;
(2) 在所有可能的特征 A A A 以及它们所有可能的切分点中,选择基尼指数最小的特征及其对应的切分点作为最优特征与最优切分点。依最优特征与最优切分点,从现结点生成两个子结点,将训练数据集依特征分配到两个子结点中去;
(3) 对两个子结点递归地调用 (1),(2),直到满足停止条件;
(4) 生成 CART 决策树
算法停止计算的条件是结点中的样本个数小于预定阈值,或样本集的基尼指数小于预定阈值(样本基本属于同一类),或者没有更多特征。
1.2.3.2 CART 回归
一个回归树把特征空间的一个划分 R m , m = 1 , 2 , ⋯   , M R_m, m = 1, 2, \cdots, M Rm,m=1,2,⋯,M 映射到一个固定的输出值 c m c_m cm,回归模型可以表示为
f ( x ) = ∑ m = 1 M c m I ( x ∈ R m ) f(x) = \sum_{m = 1}^{M}c_m I(x \in R_m) f(x)=m=1∑McmI(x∈Rm)
当输入空间的划分确定后,可以用平方误差 ∑ x i ∈ R m ( y i − f ( x i ) ) 2 \sum_{x_i \in R_m} {(y_i - f(x_i))}^2 ∑xi∈Rm(yi−f(xi))2 来表示回归树对于训练误差的预测误差,用平方误差最小的准则求解每个单元上的最优输出值,即均值(如果是绝对值误差最小,就是中位数)。那么重点就是怎样进行空间的划分。
我们先寻找最优切分点,对于一个特征 x ( j ) x^{(j)} x(j),我们设切分点 s ( j ) s(j) s(j) 将其特征空间划分为两部分
R 1 ( j , s ( j ) ) = { x ∣ x ( j ) ≤ s ( j ) } , R 2 ( j , s ( j ) ) = { x ∣ x ( j ) > s ( j ) } R_1 (j, s(j)) = \{x | x^{(j)} \le s(j)\}, \ R_2 (j, s(j)) = \{x | x^{(j)} \gt s(j)\} R1(j,s(j))={ x∣x(j)≤s(j)}, R2(j,s(j))={ x∣x(j)>s(j)}
于是,最优切分点就是使数据集在 R 1 , R 2 R_1, R_2 R1,R2 上平方误差最小的点。令
c 1 ^ ( j , s ( j ) ) = y i ˉ , x i ∈ R 1 ( j , s ( j ) ) \hat{c_1} (j, s(j)) = \bar{y_i}, \ x_i \in R_1 (j, s(j)) c1^(j,s(j))=yiˉ, xi∈R1(j,s(j))
c 2 ^ ( j , s ( j ) ) = y i ˉ , x i ∈ R 2 ( j , s ( j ) ) \hat{c_2} (j, s(j)) = \bar{y_i}, \ x_i \in R_2 (j, s(j)) c2^(j,s(j))=yiˉ, xi∈R2(j,s(j))
则特征 j j j 的最优切分点s(j) 使下式达到最小
g ( s ) = min c 1 ∑ x i ∈ R 1 ( y i − c 1 ( j , s ( j ) ) ) 2 + min c 2 ∑ x i ∈ R 1 ( y i − c 1 ( j , s ( j ) ) ) 2 g(s) = \mathop{\min}_{c_1} \sum_{x_i \in R_1}{(y_i - c_1 (j, s(j)))}^2 + \mathop{\min}_{c_2} \sum_{x_i \in R_1}{(y_i - c_1 (j, s(j)))}^2 g(s)=minc1xi∈R1∑(yi−c1(j,s(j)))2+minc2xi∈R1∑(yi−c1(j,s(j)))2
这样对于所有的特征,我们得到了一个特征与最优切分点对 ( j , s ( j ) ) (j, s(j)) (j,s(j)) ,下一步就是选取最优特征。令
m ( j ) = min s g ( s ) m(j) = \mathop{\min}_{s} g(s) m(j)=minsg(s)
于是最优特征就是最小 m ( j ) m(j) m(j) 对应的特征,我们按照该特征及其最优切分点对数据集进行划分。接着重复上述过程,直到满足停止条件。
输入:训练数据集 D D D
输出:回归树 f ( x ) f(x) f(x)
在训练数据集所在的输入空间中,递归地将每个区域划分为两个子区域并决定每个子区域上的输出值,构建二叉决策树:
(1) 选择最优切分变量 j j j 与切分点 s s s,求
min j , s [ min c 1 ∑ x i ∈ R 1 ( j , s ) + min c 1 ∑ x i ∈ R 1 ( j , s ) ] \mathop{\min}_{j,s}\left[ \mathop{\min}_{c_1} \sum_{x_i \in R_1 (j, s)} + \mathop{\min}_{c_1} \sum_{x_i \in R_1 (j, s)} \right] minj,s⎣⎡minc1xi∈R1(j,s)∑+minc1xi∈R1(j,s)∑⎦⎤
遍历变量 j j j,对固定的切分变量 j j j 扫描切分点 s s s,选择使上式达到最小值的对 ( j , s ) (j, s) (j,s);
(2) 用选定的对 ( j , s ) (j, s) (j,s) 划分区域并决定相应的输出值:
R 1 ( j , s ) = { x ∣ x ( j ) ≤ s ( j ) } , R 2 ( j , s ) = { x ∣ x ( j ) > s ( j ) } R_1 (j, s) = \{x | x^{(j)} \le s(j)\}, \ R_2 (j, s) = \{x | x^{(j)} \gt s(j)\} R1(j,s)={ x∣x(j)≤s(j)}, R2(j,s)={ x∣x(j)>s(j)}
c 1 ^ ( j , s ( j ) ) = y i ˉ , x i ∈ R 1 ( j , s ( j ) ) \hat{c_1} (j, s(j)) = \bar{y_i}, \ x_i \in R_1 (j, s(j)) c1^(j,s(j))=yiˉ, xi∈R1(j,s(j))
c 2 ^ ( j , s ( j ) ) = y i ˉ , x i ∈ R 2 ( j , s ( j ) ) \hat{c_2} (j, s(j)) = \bar{y_i}, \ x_i \in R_2 (j, s(j)) c2^(j,s(j))=yiˉ, xi∈R2(j,s(j))
(3) 继续对两个子区域调用步骤(1),(2),直至满足停止条件;
(4) 将输入空间划分为 M M M 个区域 R 1 , R 2 , ⋯   , R M R_1, R_2, \cdots, R_M R1,R2,⋯,R