算法强化 —— XGBoost

XGBoost

xgboost也是使用提升树相同的前向分步算法。其区别在于:xgboost通过结构风险极小化来确定下一个决策参数 Θ m {\Theta}_{m} Θm

Θ ^ m = arg ⁡ min ⁡ Θ m ∑ i = 1 N L ( y ~ i , f m ( x → i ) ) + Ω ( h m ( x → ) ) \hat{\Theta}_{m}=\arg \min _{\Theta_{m}} \sum_{i=1}^{N} L\left(\tilde{y}_{i}, f_{m}\left(\overrightarrow{\mathbf{x}}_{i}\right)\right)+\Omega\left(h_{m}(\overrightarrow{\mathbf{x}})\right) Θ^m=argΘmmini=1NL(y~i,fm(x i))+Ω(hm(x ))

其中 Ω ( h m ) \Omega(h_{m}) Ω(hm)为第m个决策树的正则化项。这是xgboost和GBT的一个重要区别。
L = ∑ i = 1 N L ( y ~ i , f m ( x → i ) ) + Ω ( h m ( x → ) ) \mathcal{L}=\sum_{i=1}^{N} L\left(\tilde{y}_{i}, f_{m}\left(\overrightarrow{\mathbf{x}}_{i}\right)\right)+\Omega\left(h_{m}(\overrightarrow{\mathbf{x}})\right) L=i=1NL(y~i,fm(x i))+Ω(hm(x ))为目标函数

泰勒展开式

定义:
y ^ i < m − 1 > = f m − 1 ( x → i ) , g i = ∂ L ( y ~ i , y ^ i < m − 1 > ) ∂ y ^ i < m − 1 > , h i = ∂ 2 L ( y ~ i , y ^ i < m − 1 > ) ∂ 2 y ^ i < m − 1 > \hat{y}_{i}^{<m-1>}=f_{m-1}\left(\overrightarrow{\mathbf{x}}_{i}\right), \quad g_{i}=\frac{\partial L\left(\tilde{y}_{i}, \hat{y}_{i}^{<m-1>}\right)}{\partial \hat{y}_{i}^{<m-1>}}, \quad h_{i}=\frac{\partial^{2} L\left(\tilde{y}_{i}, \hat{y}_{i}^{<m-1>}\right)}{\partial^{2} \hat{y}_{i}^{<m-1>}} y^i<m1>=fm1(x i),gi=y^i<m1>L(y~i,y^i<m1>),hi=2y^i<m1>2L(y~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值