梯度提升分类树损失函数化简过程

本文详细介绍了梯度提升分类树中交叉熵损失函数的推导过程,从基本的交叉熵公式出发,结合sigmoid函数,逐步化简得到最终形式。通过这个推导,展示了损失函数如何与决策树的输出相结合,为理解梯度提升算法的内在工作机制提供了清晰的数学基础。


梯度提升分类树损失函数化简过程

损失函数:
  • 定义交叉熵为函数 ψ ( y , F ( x ) ) \psi(y,F(x)) ψ(y,F(x))

  • ψ ( y , F ( x ) ) = − y l n ( p ) − ( 1 − y ) l n ( 1 − p ) \psi(y,F(x)) = -yln(p) - (1-y)ln(1-p) ψ(y,F(x))=yln(p)(1y)ln(1p)

    • 其中 p = 1 1 + e x p ( − F ( x ) ) p = \frac{1}{1 + exp(-F(x))} p=1+exp(F(x))1 ,即sigmoid函数
    • F ( x ) F(x) F(x)​​​​ 表示决策回归树 DecisionTreeRegressor F(x) 表示每一轮决策树的value,即负梯度
推导过程

p = 1 1 + e x p ( − F ( x ) ) p = \frac{1}{1 + exp(-F(x))} p=1+exp(F(x))1​​ 带入上面损失方程

ψ ( y , F ( x ) ) = − y l n ( p ) − ( 1 − y ) l n ( 1 − p ) = − y l n 1 1 + e x p ( − F ( x ) ) − ( 1 − y ) l n ( 1 − 1 1 + e x p ( − F ( x ) ) ) = − y l n ( 1 + e x p ( − F ( x ) ) ) − 1 − ( 1 − y ) l n e x p ( − F ( x ) ) 1 + e x p ( − F ( x ) ) = y l n ( 1 + e x p ( − F ( x ) ) ) − ( 1 − y ) ( − F ( x ) − l n ( 1 + e x p ( − F ( x ) ) ) ) = y l n ( 1 + e x p ( − F ( x ) ) ) + ( 1 − y ) ( F ( x ) + l n ( 1 + e x p ( − F ( x ) ) ) ) = F (

评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MathDance

代码点亮人生,代码改变世界……

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值