Scikit-learn——Decision Tree(Classifier)

本文介绍了如何在sklearn库中应用决策树进行分类,强调了决策树的优势,如易于理解、可视化、处理不同类型数据及多输出问题的能力。同时,指出了过拟合和稳定性差等缺点,并提及了sklearn.tree.DecisionTreeClassifier的使用示例。

本文主要介绍一下sklearn中分类决策树的简单用法。

决策树优点:
1.简单易于理解,能够可视化;
2.训练集规模不大,值得注意的是该模型不接受缺失值;
3.使用代价仅为训练样本数取对数;
4.既能够处理数值型数据集(numerical)也能够处理标签型(categorical)数据集
5.能够处理多输出问题;
6.能够用布尔逻辑来表示一种情况的决策过程,不像神经网络完全黑箱;
7.性能良好

决策树缺点:
1.容易导致过拟合,以至于泛华能力若,需要剪枝;
2.稳定性差,即使数据集微小的变化也可能导致生成一个与之前完全不同的决策树;

sklearn.tree.DecisionTreeClassifier

参数表 含义
criterion 划分标准;可选项,默认值为"gini",即基尼指数,"entropy"信息增益
max_depth 最大深度;可选项,默认值为"None",即不限深度,直到达到某种阈值
min_samples_split 阈值;可选项,默认值为2,当某个结点的样本数小于该值时,停止划分;若为浮点型,则当某个结点的样本数小于n_samples*min_samples_splie
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值