1.9、机器学习-LightGBM模型(金融实战)

LightGBM(Light Gradient Boosting Machine)是微软开发的一个基于决策树算法的分布式梯度提升框架(也可以理解为XGBoost的分布式版本),专为高效性和大规模数据设计。

1、LightGBM算法原理

LightGBM 和 XGBoost 都是优秀的梯度提升决策树(GBDT)实现,但在速度和内存效率上,LightGBM 通常展现出显著优势。这主要源于LightGBM是一个实现GBDT算法的分布式高效框架

  •  树生长策略

  • 内存消耗更低

相较于XGBoost算法,LightGBM在内存速度方面具有可观的优势:

特性维度 XGBoost LightGBM
训练速度 相对较慢(尤其在大数据集上) 更快(通过直方图、GOSS、EFB等技术优化,大数据集优势明显)
内存消耗 相对较高 更低(直方图算法将特征值转变为bin值,且不需要记录特征到样本索引,极大减少了内存消耗)
树生长策略 Level-wise (按层生长) Leaf-wise (按叶子生长)
逐层分裂,平衡树结构,但计算开销大 每次分裂当前损失下降最多的叶子,效率高,但能加深树深度
分裂点查找 预排序 (Pre-sorted) 直方图 (Histogram-based)
精确贪心算法,遍历所有特征和可能的分裂点 将连续特征离散化到桶中,只需遍历桶,大幅提速
对类别特征支持 需手动处理(如独热编码),增加维度和计算负担 原生支持,可自动处理,更高效
大数据集优化 块结构(Block)存储支持并行 GOSS(基于梯度的单边采样)和 EFB(互斥特征捆绑)
适用场景 中小规模数据集,对精度和稳
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

广漂一枚

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值