模型训练与测试---机器学习的优化方法GBDT

GBDT是一种通过不断减少残差来优化的机器学习算法,其训练过程与深度学习的梯度下降类似。每轮迭代产生一个弱分类器,这些分类器的组合构成最终模型。损失函数的负梯度被用来指导树的拟合,从而快速减小损失并找到局部或全局最优解。GBDT在特征选择上采用CART树,通过特征的组合处理非线性问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

gbdt:梯度提升决策树。通过加法模型(即基函数的线性组合),以及不断减小训练过程中产生的残差来达到数据分类或者回归的算法。

不管减少残差的过程,其实和深度学习的不断减少损失函数的过程是一致的。

gbdt的训练过程:

通过多轮的迭代,每轮迭代产生一个弱分类器,而每个分类器在上一轮分类器的残差基础上进行训练。对弱分类器的要求一般是足够简单,并且是低方差和高偏差的。因为训练的过程是通过降低偏差来不断提高最终分类器的精度,(此处是可以证明的)。

在这里插入图片描述
由于上面高偏差的要求,每个分类回归树的深度不会很深。最终的总分类器,将是每一轮训练得到的分类起加权求和得到的。有点像全连接网络哎在这里插入图片描述
损失函数呢:每一轮产生一个弱分类器件,弱分类器的损失函数:

在这里插入图片描述
整个过程和深度学习的梯度下降基本上类似的,不断的来最小化损失函数来确定下一个弱分类器的参数,而深度学习通过优化器的梯度下降和反向传播,来影响每一层的参数变化。
在这里插入图片描述
那么gbdt是如何做到让损失函数不断减少的呢?

让损失函数沿着梯度方向下降,就是gb的核心

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值