梯度提升树(GBDT)详解之一:回归举例

本文介绍了梯度提升树(GBDT)的回归应用,作为集成学习的一种,GBDT通过逐次建立模型减少损失函数的梯度来提升性能。在回归问题中,GBDT用平方误差作为损失函数,通过预测残差逐步优化模型。以树高预测为例,展示了GBDT如何通过计算伪残差和构建决策树,逐步改进预测结果。学习率控制新树的影响,防止过拟合。GBDT在每次迭代中构建决策树,直到伪残差变化不再显著或达到预设树的数量上限。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在2006年12月召开的 IEEE 数据挖掘国际会议上(ICDM, International Conference on Data Mining),与会的各位专家选出了当时的十大数据挖掘算法( top 10 data mining algorithms ),可以参见文献【1】。作为集成学习(Ensemble learning)的一个重要代表AdaBoost入选其中。但基于Boosting 思想设计的算法,也是常常用来同AdaBoost进行比较的另外一个算法就是Gradient Boost。它是在传统机器学习算法里面是对真实分布拟合的最好的几种算法之一,在前几年深度学习还没有大行其道之时,Gradient Boost几乎横扫各种数据挖掘(Data mining)或知识发现(Knowledge discovery)竞赛。

 

梯度提升树(GBDT, Gradient Boosted Decision Trees),或称Gradient Tree Boosting,是一个以决策归树为基学习器,以Boost为框架的加法模型的集成学习技术。因此,GBDT也是 Boosting 算法的一种,但是和 AdaBoost 算法不同。区别在于:AdaBoost 算法是利用前一轮的弱学习器的误差来更新样本权重值,然后一轮一轮的迭代;而GBDT基于Gradient Boost算法。其主要思想是,每次建立模型是在之前建立模型损失函数的梯度下降方向。我们都知道,损失函数可用于评价模型性能,一般认为损失函数越小,性能越好。而让损失函数持续下降,就能使得模型不断调整提升性能,其最好的方法就是使损失函数沿着梯度方向下降。GBDT在此基础上,基于负梯度做学习。GBDT可以用来做回归,也可以用来做预测。在回归问题中,GBDT采用平方误差来作为损失函数。当损失函数

评论 20
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

白马负金羁

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值