决策树
文章平均质量分 90
phyllisyuell
学习交流,做一枚认真的程序媛!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
决策树的可视化输出
前面的博客里有提到决策树,我们也了解了决策树的构建过程,如果可以可视化决策树,把决策树打印出来,对我们理解决策树的构建会有很大的帮助。这篇文章中,我们就来看下如何可视化输出一棵决策树。一、安装相应的插件我们需要安装Graphviz和pygraphviz,教程,这个教程里有详细的安装过程,这里就不赘述了。二、运行实例我们依然以iris数据集为例,打印输出决策树看下效果。#coding=utf-8i...原创 2018-04-11 22:30:12 · 14112 阅读 · 1 评论 -
xgboost 逻辑回归:objective参数(reg:logistic,binary:logistic,binary:logitraw,)对比分析
熟悉xgboost的小伙伴都知道,它在训练模型时,有train()方法和fit()方法,train方法使用如下:params ={'eta': 0.1, 'max_depth': 4, 'num_boost_round':20, 'objective': 'reg:logistic', 'random_state': ...原创 2018-07-11 22:26:53 · 29590 阅读 · 7 评论 -
xgboost 多分类:objective参数(reg:linear,multi:softmax,multi:softprob)对比分析
一、问题上篇文章中我们已经搞明白了逻辑回归的问题中,xgboost的train(),fit()方法已经不同参数的objective的对应的输出结果和关系,这篇文章我们就来研究下xgboost再做多分类时,train(),fit()建模后输出的值是怎么样的,它都有那些objective的参数,并且分别对应着怎样的输出?二、objective参数比较xgboost的官方文档关于多分类的objectiv...原创 2018-07-12 19:12:49 · 36645 阅读 · 3 评论 -
如何利用gcForest为特征打分?
楼主前面有一篇博客提到了周志华老师又一力作:gcForest:探索深度神经网络以外的方法,不了解的小伙伴可以翻前面的博客。这个算法的确比传统的集成树算法:RandomForest,XGBoost,lightGBM都要优秀,而且引入层的概念后很好的解决了集成树算法容易过拟合的问题。简单讲他就是借鉴了深度学习分层训练的思路,将机器学习中常用的RandomForest,XGBoost,Lo...原创 2018-12-26 16:36:41 · 2066 阅读 · 3 评论
分享