GBDT、XGBoost、LightGBM比较

GBDT是基于GradientBoosting策略的决策树模型,广泛应用于回归和分类任务。XGBoost和LightGBM是其优化版本,解决了并行计算和效率问题。XGBoost引入了稀疏感知算法和公平的分割点搜索,而LightGBM利用GOSS和EFB减少数据和特征维度,提高效率。这三个模型在大数据和竞赛中表现出色。

1.GBDT

GBDT (Gradient Boosting Decision Tree) 梯度提升决策树。DT-Decision Tree决策树,GB是Gradient Boosting,是一种学习策略,GBDT的含义就是用Gradient Boosting的策略训练出来的DT模型

在前几年深度学习还没有大行其道之前,GBDT在各种竞赛是大放异彩。一是效果确实挺不错。二是即可以用于分类也可以用于回归。三是可以筛选特征。

Boosting共有的缺点为训练是按顺序的,难以并行,这样在大规模数据上可能导致速度过慢,所幸近年来XGBoost和LightGBM的出现都极大缓解了这个问题。XGBoost和LightGBM是GBDT的升级版。

支持以下应用:
1)回归,目标函数为 L2 loss
2)二分类, 目标函数为 logloss(对数损失)
3)多分类
4)ambdarank, 目标函数为基于 NDCG 的 lambdarank

GBDT学习总结(Boosting、决策树)
https://blog.youkuaiyun.com/zephyr_wang/article/details/106409307

XGBoost LightGBM
默认基于 pre-sorted 的算法 基于 histogram 的算法
Leaf-wise (Best-first) 的决策树生长策略
连续的值替换为 discrete bins
<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI强仔

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值