LightGBM 的优点(相较于XGBoost) + 细节操作 讲解 (一)

文章介绍了XGBoost在构建决策树时的缺陷,包括空间消耗大、时间消耗大和缓存访问效率低。LightGBM通过引入基于直方图的决策树算法和Leaf-wise生长策略进行优化,减少了分割次数和内存消耗,提升了效率。此外,还提到了LightGBM的其他优化点,如单边梯度采样和互斥特征捆绑等。

        GBDT有两种工业化实现 :XGBoost LightGBMLightGBM 是在 XGBoost 的基础之上的优化版本。

        这里是LightGBM优势讲解第一篇,主要包含XGB的缺陷LightGBM的优势,以及LightGBM中基于直方图的决策树最优分割点选取 + Leaf-wise叶子节点生成策略

1. XGBoost 基本缺陷

      XGBoost 是基于预排序的决策树算法。假设正在构建第 T 颗决策树,此时正在构建第 L 层,正在选择第 L 层中第 J 个叶子节点的最佳特征 + 最佳分割点时,有如下步骤:

        (1)分别对所有特征,按照特征的数值进行排序(需要记录排序后的样本索引);

        (2)在遍历最佳分割点时,枚举每一个特征的每一个数值,选择增益最大的分割位置作为最佳分割点;注意:由XGB增益的计算公式可得,增益与第 J 个节点中所有样本的一阶导数 和 二阶导数有关,这些导数值在第 J 个节点确定的时(在上一轮子树划分后,包含的样本都是确定的)都是已知的,可以提前计算好!增益的计算和损失函数的解析解也有关联(如果感兴趣的小伙伴可以自己搜索一下,或者等我写一写);

Gain = \frac{​{G_{L}}^{2}}{H_{L} + \lambda } + \frac{​{G_{R}}^{2}}{H_{R} + \lambda } - \frac{​{G_{}}^{2}}{H_{} + \lambda }

        

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值