上一篇文章已经讲了决策树的原理:模拟 人决策过程,按因素影响程度 从大到小,依次决策,得出最终结论。也讲了如何判断因素的影响程度的一种方法:信息增益越大,影响程度越大。也大致讲了递归构建决策树的过程,今天我们来使用sklearn实现决策树。
我不建议重复造轮子,除非当前轮子无法满足需求。sklearn实现决策树的核心代码就3句:
1.声明决策树模型
model=tree.DecisionTreeClassifier(
criterion="entropy" #这里使用entropy的方式,默认是gini
,random_state=30

本文介绍了如何使用sklearn库实现决策树模型,通过3步核心代码:声明模型、训练模型和预测分类结果。以红酒数据集为例,讨论了模型参数如criterion、max_depth、min_samples_leaf等的作用。
最低0.47元/天 解锁文章
1711

被折叠的 条评论
为什么被折叠?



