python机器学习0基础到入门的心得----入门篇2 决策树

什么是ID3决策树

  • 使用决策树来处理分类问题, 同时也是经常使用的数据挖掘算法
  • 输入测试集, 不断推断分解, 逐步缩小待猜测事物的范围, 划分出最优数据子集
  • 将无序的数据变得更加有序
  • 一次只选一个特征去划分最优数据子集

本章节代码

这里写图片描述
上面的图片就是决策树的最终展现图


优点

  1. 不需要了解算法
  2. 时间复杂度不高
  3. 数据易于展现
  4. 可以处理不相关特征

缺点:

  1. 可能会产生过度匹配, 会把没用的特征值全部展现出来

适用数据类型: 标称型


决策树术语

这里写图片描述 椭圆形节点代表终止模块, 也叫叶子结点, 任何到达叶子结点的数据必然属于叶子结点的分类
这里写图片描述正方形代表判断模块
从判断模块引出的左右箭头称作分支

原始香农熵: 表示数据的无序程度,混合的数据越多, 熵越高 公式为这里写图片描述
信息增益: 在划分数据集之前之后信息发生变化叫做信息增益, 具体是累加原始香农熵, 计算出信息增益值, 熵越高, 信息增益值越低, 公式为这里写图片描述
随机森林: 多个决策树
集成方法: 利用多个分类器共同决定
有放回的随机抽样: 拿出去一部分进行随机, 随机完必须拿回来,否则在随机抽样不放回, 训练集永远都是新的


随机森林

随机森林是一个包含多个决策树的分类器, 并且其输出的类别是个别树输出的类别的众数而定

  • 相比决策树, 具有极好的准确率
  • 能够有效的运行在大数据集上
  • 能够处理高纬度特征, 而且不需要降维(随机抽取维度, 还可以限制深度, 不至于节点爆炸)
  • 能够评估各个特征在分类问题上的重要性(第一个叶子结点的分类总是最重要的)
  • 对于缺省值问题也能获得很好的结果(只是消耗特征,而不会具体看特征值)

本人归纳:

  1. 找出划分数据集起决定性作用的特征, 接着划分出最优的数据子集
    1. 如果某个分支下的数据属于同一类型, 则该节点称为叶子结点, 不需要在划分数据子集
    2. 如果不属于同一类型, 则需要重复划分数据子集
  2. 要构造决策树, 就必须知道哪个特征在划分数据子集时起决定性作用, 每次评估一个特征(计算数据无序程度), 通过评估每个特征的熵(计算信息增益), 划分出最优子集, 把最优子集用可视化的方式展现出来就是决策树, 如果特征消耗完了,类别依然不是唯一, 最终会通过多数表决的方式决定叶子节点的分类

具体:
1. 选出起决定性作用的特征, 去重特征那列的值, 遍历不重复特征值, 划分出最优子集, 递归

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

葬爱程序员

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值