
XGBoost
安然烟火
如果人没有理想,那和咸鱼有什么区别呢?
展开
-
XGBoost学习(六):输出特征重要性以及筛选特征
XGBoost输出特征重要性以及筛选特征1,梯度提升算法是如何计算特征重要性的?使用梯度提升算法的好处是在提升树被创建后,可以相对直接地得到每个属性的重要性得分。一般来说,重要性分数,衡量了特征在模型中的提升决策树构建中的价值。一个属性越多的被用来在模型中构建决策树,它的重要性就相对越高。属性重要性是通过对数据集中的每个属性进行计算,并进行排序得到。在单个决策树中通过每个属性分裂点改进性能度量的量来计算属性重要性。由节点负责加权和记录次数,也就是说一个属性对分裂点改进性能度量越大(越靠近根节点),权值原创 2020-09-03 16:03:17 · 51832 阅读 · 4 评论 -
XGBoost学习(五):参数调优
Xgboost参数调优的一般方法调参步骤:1,选择较高的学习速率(learning rate)。一般情况下,学习速率的值为0.1.但是,对于不同的问题,理想的学习速率有时候会在0.05~0.3之间波动。选择对应于此学习速率的理想决策树数量。Xgboost有一个很有用的函数“cv”,这个函数可以在每一次迭代中使用交叉验证,并返回理想的决策树数量。2,对于给定的学习速率和决策树数量,进行决策树特定参数调优(max_depth , min_child_weight , gamma , subsample,c原创 2020-09-03 15:54:08 · 13090 阅读 · 3 评论 -
XGBoost学习(四):实战-python3
Xgboost实战Xgboost有两大类接口:Xgboost原生接口 和sklearn接口,并且Xgboost能够实现分类回归两种任务。下面对这四种情况做以解析。1,基于Xgboost原生接口的分类from sklearn.datasets import load_irisimport xgboost as xgbfrom xgboost import plot_importanceimport matplotlib.pyplot as pltfrom sklearn.model_selec原创 2020-09-03 09:42:37 · 3009 阅读 · 0 评论 -
XGBoost学习(三):模型详解
1,Xgboost能加载的各种数据格式解析Xgboost可以加载多种数据格式的训练数据:libsvm 格式的文本数据;Numpy 的二维数组;XGBoost 的二进制的缓存文件。加载的数据存储在对象 DMatrix 中。下面一一列举:#记载libsvm格式的数据dtrain1 = xgb.DMatrix('train.svm.txt')#记载二进制的缓存文件dtrain2 = xgb.DMatrix('train.svm.buffer')#加载numpy的数组data = np.r原创 2020-08-17 10:59:52 · 8491 阅读 · 0 评论 -
XGBoost学习(二):介绍及安装
前言1,Xgboost简介Xgboost是Boosting算法的其中一种,Boosting算法的思想是将许多弱分类器集成在一起,形成一个强分类器。因为Xgboost是一种提升树模型,所以它是将许多树模型集成在一起,形成一个很强的分类器。而所用到的树模型则是CART回归树模型。 Xgboost是在GBDT的基础上进行改进,使之更强大,适用于更大范围。 Xgboost一般和sklearn一起使用,但是由于sklearn中没有集成Xgboost,所以才需要单独下载安装。2,Xgboost的优点Xg原创 2020-08-14 17:41:27 · 1733 阅读 · 0 评论 -
XGBoost学习(一):原理
一.绪论在实际应用的机器学习方法里,GradientTree Boosting (GBDT)是一个在很多应用里都很出彩的技术。XGBoost是一套提升树可扩展的机器学习系统。2015年Kaggle发布的29个获胜方法里有17个用了XGBoost。在这些方案里,有8个仅用了XGBoost,另外的大多数用它结合了神经网络。对比来看,第二流行的方法,深度神经网络,只被用了11次。这个系统的成功性也被KDDCup2015所见证了,前十的队伍都用了XGBoost。此外,据胜出的队伍说,很少有别的集成学习方法效果能超原创 2020-08-12 15:49:53 · 4143 阅读 · 0 评论