决策树算法

本文详细介绍了决策树算法的基本原理及三种常见的划分标准:信息增益、增益率和基尼系数,并提供了具体的计算公式和示例。
决策树算法是一类常用的机器学习算法,在分类问题中,决策树算法通过样本某一维属性的值将样本划分到不同的类别中,决策树算法通常是基于树形结构来进行决策的。在决策树算法中,常常使用三个标准来对数据进行划分进行,它们分别为:信息增益(Information Gain),增益率(Gain Ratio)和基尼系数(Gini Index)
熵(Entropy):

是度量样本集合纯度的最常用的一种指标,对于包含m个训练样本的数据集D:{(x(1),y(1)),…,(x(m),y(m))},在数据集D中,第k类样本所站的比例为pk,则数据集D的信息熵的计算公式如下:

Entropy(D)=k=1kpklog2pk

比如数据集D中有五个人,三个男人两个女人,性别为该数据集分类标准那么,该数据集的信息熵计算如下:
Entroy(D)=(35log235+25log225)

当把样本按特征A进行划分成两个独立的子数据集D 1和D 2,此时整个数据集D的熵为两个独立数据集D 1和D 2的熵的加权之和,权重为每个数据集的个数占数据集个数总量的比例:
Entropy(D)=|D1||D|Entropy(D1)+|D2||D|Entropy(D2)

=|D1||D|k=1kpklog2pk+|D2||D|k=1kpklog2pk

其中|D|表示的数据集D中的样本的个数。

1)信息增益(Information Gain)——ID3:

数据集D在特征A进行划分后熵的减小值被成为信息增益,即:

igain(D,A)=EntropyDp=1p|Dp||D|Entropy(Dp)

其中|D p|是属于第p类样本的个数,在选择数据集划分的标准时,通常选择能使信息增益最大的特征进行划分

2)增益率(Gain Ratio)——C4.5:

gain_ratio(D,A)=igain(D,A)IV(A)

其中IV(A)被称为特征A的固有值,计算方法如下:
IV(A)=p=1p|Dp||D|log2|Dp||D|

3)基尼系数(Gini Index)——CART:

可以选择最优的划分属性,对于数据集D,假设有K个分类,则样本属于第K个分类的概率为pk,则此概率的基尼系数为:

Gini(p)=k=1kpk(1pk)=1k=1kpk2

对于数据集D:
Gini(D)=1k=1k|Ck||D|

|C k|表示数据集D中属于类别k的样本的个数,若此时根据特征A将数据集D划分成两个完全独立的数据集D 1和D 2,此时的基尼系数为:
Gini(D,A)=|D1||D|Gini(D1)+|D2||D|Gini(D2)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值