决策树-GBDT-RF-Xgboost

本文介绍了决策树算法的三种重要形式:GBDT、随机森林(RF)和Xgboost。GBDT通过梯度下降法减少损失函数,随机森林通过随机采样和完全分裂构建多样化的决策树,而Xgboost在优化目标中加入树的复杂度作为正则项,利用二阶导数信息并支持并行计算,提升了模型性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考http://www.cnblogs.com/LeftNotEasy/archive/2011/03/07/1976562.html

决策树算法有很多良好的特性,比如可以直观的展示模型,适用于非线性分类等。但是单决策树容易过拟合,于是人们采用剪枝的办法来尽量减少这种情况。后来出现将模型组合(boosting,bagging)与决策树结合,使几百颗简单的决策树组合在一起,组合后的分类器很强大,不容易过拟合。常见的两种基本形式有GBDT和随机森林(RF)。而xgboost是eXtreme Gradient Boosting,xgboost最大的特点在于,它能够自动利用CPU的多线程进行并行,同时在算法上加以改进提高了精度。接下来一一介绍三种算法。

1.GBDT

GBDT(Gradient Boost Decision Tree)又叫MART(Multiple Additive Regression Tree),GBRT(Gradient Boost Regression Tree),Tree Net等。

先讲一下Gradient Boost与传统的Boost的不同,传统的Boost是给每个样本赋一个权值,然后每次分错的样本的权值会增大,分对的样本的权值就会减小,进行M此迭代后,将M个弱分类器组合在一起,组合为一个强分类器,其中分类正确率高的弱分类器的权值比较大,分类正确率低的分类器的权值小。而Gradient Boost每次迭代的目标是为了减少上一次的残差(residual),在残差减少的梯度(Gradient)方向上建立一个新的模型。也就是说,在Gradient Boost中,每个新的模型的建立是使之前模型的残差往梯度方向减少,与传统Boost对正确、错误的样本进行加权有着很大的区别。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值