本文从互联网搬运,只用于本人学习记录。
决策树之LightGBM
主要用于解决 GDBT 在海量数据中遇到的问题,相对 XGBoost 具有训练速度快、内存占用低的特点。
1. 优化
为了避免XGBoost的缺陷,并且能够在不损害准确率的条件下加快GBDT模型的训练速度,lightGBM在传统的GBDT算法上进行了如下优化:
- 基于Histogram的决策树算法。
- 单边梯度采样 Gradient-based One-Side Sampling(GOSS):使用GOSS可以减少大量只具有小梯度的数据实例,这样在计算信息增益的时候只利用剩下的具有高梯度的数据就可以了,相比XGBoost遍历所有特征值节省了不少时间和空间上的开销。
- 互斥特征捆绑 Exclusive Feature Bundling(EFB):使用EFB可以将许多互斥的特征绑定为一个特征,这样达到了降维的目的。
- 带深度限制的Leaf-wise的叶子生长策略:大多数GBDT工具使用低效的按层生长 (level-wise) 的决策树生长策略,因为它不加区分的对待同一层的叶子,带来了很多没必要的开销。实际上很多叶子的分裂增益较低,没必要进行搜索和分裂。LightGBM使用了带有深度限制的按叶子生长 (leaf-wise) 算法。
- 直接支持类别特征(Categorical Feature)
- 支持高效并行
- Cache命中率优化
2. 相对XGBoost优缺点
优点:
- 速度更快
- LightGBM 采用了直方图算法将遍历样本转变为遍历直方图,极大的降低了时间复杂度;

LightGBM是针对GBDT的优化解决方案,解决了XGBoost在大规模数据中的问题,提供更快的训练速度和更低的内存占用。通过Histogram算法、GOSS、EFB和Leaf-wise生长策略等优化,提升了效率。同时,它支持类别特征,优化了并行计算和缓存命中率。相较于XGBoost,LightGBM的优点包括速度和内存效率,但可能会导致较深的决策树和对噪点的敏感。调参涉及boosting类型、num_leaves、max_depth、feature_fraction和lambda_l2等参数。
最低0.47元/天 解锁文章
33

被折叠的 条评论
为什么被折叠?



