【机器学习】GBDT算法原理

GBDT是一种集成学习方法,通过多棵树的协作实现强大的泛化能力。算法步骤包括:初始化、计算损失函数的负梯度、估计回归树节点区域、线性搜索最小化损失函数及更新回归树。

GBDT算法原理

GBDT是集成学习中的一种方法,它将梯度作为后一棵树的输入,来学习出多颗树。通过多棵树的协作,完成一个泛化能力很强的综合学习器。具体的GBDT算法如下。


算法:


算法第1步初始化,估计使损失函数极小化的常数值,它是只有一个根节点的树。第2a)步计算损失函数的负梯度在当前模型的值,将它作为残差的估计。对于平方损失函数,它就是通常所说的残差;对于一般损失函数,它就是残差的近似值。第2b)步估计回归树叶节点区域,以拟合残差的近似值。第2c)步利用线性搜索估计叶节点区域的值,使损失函数极小化。第2d)步更新回归树。第3步得到输出的最终模型f^(x)

其中,c_mj为预测值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值