GBDT算法

GBDT 是 Gradient Boosting Decison Tree,是集成学习下boosting家族的一个算法。GBDT 可以用于分类和回归任务,但基学习器都是 CART 回归树,因为它使用的是负梯度拟合的方法做的,分类任务是通过采用损失函数来做的,类似于二分类逻辑回归的对数损失函数来说,相当于把之前的线性回归 f ( x ) = w T x + b f(x)=w^Tx+b f(x)=wTx+b 这里用 CART 回归树 F ( x ) F(x) F(x)代替,即利用回归树表达分类结果 p ( y = 1 ∣ x ) = 1 1 + e − F ( x ) = e F ( x ) 1 + e F ( x ) p(y=1|x)=\frac{1}{1+e^{-F(x)}}=\frac{e^{F(x)}}{1+e^{F(x)}} p(y=1∣x)=1+eF(x)1=1+eF(x)eF(x),然后再套最大化似然函数的推导,最后结果可以看这里(注意这篇文章的2.2应该是替换成 p ( y = 1 ∣ x ) = 1 1 + e − F ( x ) p(y=1|x)=\frac{1}{1+e^{-F(x)}} p(y=1∣x)=1+eF(x)1,而不是直接替换成 F ( x ) F(x) F(x)代入上式,得到的结果是对的。另外补充近似值代替过程很值得看)。实际上也就是这里提到的损失函数(但是要注意这篇文章的标签分类是-1和1,而前面的分析都是0和1)。多分类任务和softmax回归中提到的损失函数和梯度一致
关于xgboost和lightboost可以看这里这里

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

_森罗万象

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值