机器学习sklearn(6)决策树分类

本文介绍了决策树分类的原理、优缺点,重点讲解了sklearn中的DecisionTreeClassifier,包括熵、基尼系数等信息评估标准,以及模型参数如max_depth、min_samples_split等。此外,还展示了如何利用sklearn训练决策树模型,并通过可视化工具展示决策树结构,最后给出了预测示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

原理:

由某种原则(信息熵或是基尼系数)来确定决策条件先后顺序,进而通过这一系列条件来实现对数据进行分类。

优点:

  • 简单直观,生成的决策树很直观
  • 基本不需要预处理,不需要提前归一化,处理缺失值
  • 使用决策树预测的代价是O(log_{2}m)。m为样本数
  • 既可以处理离散值也可以处理连续值
  • 可以处理多维度输出的分类问题
  • 相比于神经网络之类的黑盒分类模型,在逻辑上可以得到很好的解释
  • 可以通过交叉验证的剪枝来选择模型,从而提高泛化能力
  • 对于异常点的容错能力好,健壮性高

缺点:

  • 非常容易过拟合,导致泛华能力不强。可以通过设置节点最少样本数和限制决策树深度来改进
  • 会因为样本发生一点点的改动,导致树结构的剧烈改变。可以通过集成学习之类的方法来解决
  • 容易陷入局部最优,可以通过集成学习之类的方法来改善
  • 有些比较复杂的关系,比如异或,决策树很难学习,一般这种关系可以换神经网络分类方法来解决
  • 如果某些特征的样本比例过大,生成决策树容易偏向于这些特征,可以通过调节样本权重来改善

三种决策树算法:

 

熵:

H(X)=-\sum_{i=1}^{n}p_{i}log_{2}p_{i}

联合熵:

H(X,Y)=-\sum_{i=1}^{n}p(x_{i},y_{i})log_{2}p(x_{i},y_{i})

条件熵:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值