机器学习——创建决策树

本文详细介绍了决策树的基本概念、优缺点,以及在属性选择中常用的三种方法:信息增益、信息增益率和基尼指数。通过实例展示了如何使用这些方法,并提供了ID3和C4.5算法的Python代码实现,最后利用Matplotlib绘制了决策树。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

一、决策树介绍

1.1什么是决策树

1.2决策树实例

1.3决策树的优缺点

二、划分选择

2.1信息增益

2.2增益率

2.3基尼指数

三、代码实现 

3.1以信息增益划分属性/ID3

数据加载

计算给定数据的香农熵 

根据某一特征划分数据集 

选择最佳属性划分数据集 

创建并递归遍历该树 

添加主函数

 运行结果

小结 

3.2以信息增益率划分属性/C4.5

运行结果

​编辑 

小结 

 3.3在 Python 中使用 Matplotlib 注解绘制树形图 

运行结果 

 


 

一、决策树介绍

1.1什么是决策树

        决策树(decision tree)是一种基本的分类与回归方法。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。

        分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。结点有两种类型:内部结点和叶结点。内部结点表示一个特征或属性,叶结点表示一个类。

1.2决策树实例

        

根据以上对话我们可以画出一棵决策树:

决策过程中提出的每个判定问题都是对某个属性的“测试”

例如年龄=?、长相=?、收入=?、是否是公务员

每个测试的结果或是导出最终结论,或者导出进一步的判定问题,其考察范围是在上次决策结果的限定范围之内。

例如 年龄<=30,之后再判断长相,则仅考虑年龄小于30的对象

从根结点到每个叶结点的路径对应了一个判定测试序列

例如 年龄小于30,长相帅,收入高的路径,最终判定结果为

决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树。

1.3决策树的优缺点

优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据。

缺点:可能会产生过度匹配问题。

适用数据类型:数值型和标称型。

二、划分选择

决策树学习的关键是如何选择最优划分属性。一般而言,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于同一类别,即结点的“纯度”(puruty)越来越高

2.1信息增益

 “信息熵”是度量样本集合纯度最常用的一种指标,假定当前样本集合D中第k类样本所占的比例为p{_{k}}^{}(K=1,2,……,|y|),则D的信息熵定义为

Ent(D) = -\sum_{k=1}^{|y|}p_{k}^{}log{_{2}}^{}p_{k}^{}

 Ent(D)的值越小,则D的纯度越高

计算信息熵时约定:若p=0,则plog2p=0

Ent(D)的最小值为0,最大值为log2|y|

离散属性a有V个可能的取值{ a^1 , a^2, ..., a^v },用a来进行划分,则会产生V个分支结点,其中第v个分支结点包含了D中所有在属性a上取值为 a^v的样本,记为D^v 。则可计算出用属性a对样本集D进行划分所获得的信息增益

Gain(D,a) = Ent(D) - \sum_{v=1}^{V}\frac{|D^{v}|}{|D|}Ent(D^{v})

再考虑到不同的分支结点所包含的样本数不同,给分支结点赋予权重,样本数越多的分支结点的影响越大

一般而言,信息增益越大,则意味着使用属性a来进行划分所获得的“纯度提升”越大 

说了这么多可能还是有点难理解信息增益是什么,怎么用,下面我们用个例子来说明一下 

这是西瓜书上的例子 ,我们根据一个西瓜的色泽、根蒂、敲声、纹理、触感等来判断它是不是一个好瓜。

该数据集包含17个训练样本,结果有两种,一是好瓜,二是坏瓜,所以|y|=2,其中正例(好瓜)占p_{1}=\frac{8}{17} ,反例(坏瓜)占p_{2}=\frac{9}{17},可以算出根结点的信息熵为

Ent(D) = - \sum_{k=1}^{2}p_{k}log_{2}p_{k} = -(\frac{8}{17}log_{2}\frac{8}{17}+\frac{9}{17}log_{2}\frac{9}{17}) = 0.998

以属性“色泽”为例其对应的3个数据子集分别为D^1(色泽= 青绿),D^2(色泽=乌黑),D^3 (色泽=浅白)

子集D^1包含编号为{1, 4, 6, 10, 13, 17} 的6个样例,其中正例占p_{1}=\frac{3}{6} ,反例占 p_{2}=\frac{3}{6}D^1的信息熵为:

 Ent(D^{1}) = - (\frac{3}{6}log_{2}\frac{3}{6}+\frac{3}{6}log_{2}\frac{3}{6}) = 1.000

 同理D^2D^3的信息熵为:

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值