决策树:ID3和C4.5

本文介绍了决策树的基础知识,包括熵、条件熵、信息增益和信息增益比的概念。详细阐述了ID3算法的工作原理及不足,如无法处理连续特征和过拟合问题。接着,介绍了C4.5算法,它通过信息增益比解决了ID3的偏好问题,并引入了处理连续特征和缺失值的方法。总结了ID3和C4.5的优缺点,指出C4.5改进了ID3的一些缺陷但仍然可能过拟合。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

1 决策树简介

2 前置信息论知识

2.1 熵的概念

2.2 条件熵

2.3 信息增益

2.4 信息增益比

2.5 举例说明

3 ID3算法

3.1 ID3算法解释

3.2 ID3算法不足

4 C4.5算法

4.1 采用信息增益比作为特征选择标准

4.2 处理连续特征

4.3 缺失值处理

5 总结


1 决策树简介

决策树是一种分类算法,是通过对数据的处理,利用归纳算法,生成一些列规则,类似于if-else,然后根据这些规则对新的数据做决策。本质上就是学习规则,在利用规则做分类的过程。具体来说,就是首先根据数据的特征,决定每个树的节点使用哪一个特征做为分类依据,以及使用这个特征的哪个指作为分类界限,这就是一棵树的构造过程。

决策树的优点:

  • 推理过程容易理解,决策过程可以表示成if-else
  • 推理过程完全依赖于属性变量的取值特点
  • 可自动忽略目标变量没有贡献 的属性变量,也为判断属性变量的重要性、减少变量数目提供参考。

2 前置信息论知识

2.1 熵的概念

熵是对信息不确定程度的度量, 信息越不确定,熵就越大,反之熵就越小。熵的数学解释:

假设X是一个取有限值的随机变量,其概率分布为:

P(X=x_i)=p_i, i=1,2,3,...

则对于随机变量X的熵的定义为:

H(X)=-\sum_{i=1}^{n}p_i \log pi

其中n代表Xn种不同的离散取值,p_i代表了X取值为x_i的概率,对数以2为底或者以自然地鼠e为底,这时熵的单位称作比特(bit)或纳特(nat),熵只依赖于

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值