xgboost等集成学习原理推导

本文详细解析了梯度提升树的数学原理,包括损失函数、正则化项及树的生成过程。介绍了如何通过泰勒展开近似损失函数,并利用贪心算法优化树的结构。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习的一般模型

obj(θ)=L(θ)+Ω(θ)obj(θ)=L(θ)+Ω(θ)

目标函数等于损失函数加正则项。在boost中,为弱学习器的级联。约定训练集为X,个数为N,维度为M,xixi 为第i个样本,yiyi 为第i个样本的标签,
y^(0)i=0y^(1)i=y^(0)i+f1(xi)y^(2)i=y^(1)i+f2(xi)y^(3)i=y^(2)i+f3(xi)......y^(t)i=y^(t1)i+ft(xi)y^i(0)=0y^i(1)=y^i(0)+f1(xi)y^i(2)=y^i(1)+f2(xi)y^i(3)=y^i(2)+f3(xi)......y^i(t)=y^i(t−1)+ft(xi)

其中y^(t)iy^i(t) 为第i个数据的第t级输出,ft(xi)ft(xi) 为第i个样本被第t级学习器拟合的残差。

有:

objti(ft,xi)=L[yi,y^(t)i]+Ω(ft)+constantobjit(ft,xi)=L[yi,y^i(t)]+Ω(ft)+constant

将L在y^(t1)iy^i(t−1) 处taylor展开,得:
L[yi,y^(t)i]=L[yi,y^(t1)i]+gift(xi)+12hif2i(xi)gi=L[yi,y^(t1)i]y^(t1)ihi=2L[yi,y^(t1)i](y^(t1)i)2L[yi,y^i(t)]=L[yi,y^i(t−1)]+gift(xi)+12hifi2(xi)gi=∂L[yi,y^i(t−1)]∂y^i(t−1)hi=∂2L[yi,y^i(t−1)]∂(y^i(t−1))2

定义ft(xi)=wq(xi)ft(xi)=wq(xi) ,其中wq(xi)wq(xi)xixi 落入的叶子节点的值(score),编号为q,值就是wqwq。对于落入相同叶子结点的,wq(xi)wq(xi) 的值相等。

对于所有的样本,有:

objt(ft)=i=0N1(L[yi,y^(t)i])+Ω(ft)+constantΩ=γT+λq=0T1w2qobjt(ft)=∑i=0N−1(L[yi,y^i(t)])+Ω(ft)+constantΩ=γT+λ∑q=0T−1wq2

则有:
L[yi,y^(t)i]=L[yi,y^(t1)i]+gift(xi)+12hif2i(xi)objt(ft)=i=0N1{gift(xi)+12hif2(xi)}+γT+λ12q=0T1w2q+constantobjt(ft)=q=0T1{iIqgiwq+12iIqhiw2q+12λw2q}+γT+constantobjt(ft)=q=0T1{Gqwq+12(Hq+λ)w2q}+γTL[yi,y^i(t)]=L[yi,y^i(t−1)]+gift(xi)+12hifi2(xi)objt(ft)=∑i=0N−1{gift(xi)+12hif2(xi)}+γT+λ12∑q=0T−1wq2+constantobjt(ft)=∑q=0T−1{∑i∈Iqgiwq+12∑i∈Iqhiwq2+12λwq2}+γT+constantobjt(ft)=∑q=0T−1{Gqwq+12(Hq+λ)wq2}+γT

当树生成了之后,最优的wq=GqHq+λwq∗=−GqHq+λ ,此时obj(ft)=G2q2(Hq+λ)+γTobj(ft)=−Gq22(Hq+λ)+γT 。对于不同的树有不同的损失,去最优,为了避免对所有的可能得树都进行生成后的比较,对分裂的叶子节点采用贪心算法:
Gain=G2LHL+λ+G2RHR+λ(GL+GR)2HL+HR+λγGain=GL2HL+λ+GR2HR+λ−(GL+GR)2HL+HR+λ−γ

遍历所有节点,选择增益最大值和属性作为分裂点。

即拟合残差时使用模型

y^(t)i=y^(t1)i+ft(xi)y^i(t)=y^i(t−1)+ft(xi)

而加入使用的时候,在实际应用中,引入学习率,有模型:
y^(t)i=y^(t1)i+ηft(xi)y^i(t)=y^i(t−1)+ηft(xi)

每次都不完全拟合残差,以防止过拟合。

例如,用Li=12(yiy^i)2Li=12(yi−y^i)2 作为损失函数,假设已经建立好了t-1颗树,则第t颗树

有:

gi=L[yi,y^(t1)i]y^(t1)i=yi^(t1)yihi=2L[yi,y^(t1)i](y^(t1)i)2=1gi=∂L[yi,y^i(t−1)]∂y^i(t−1)=yi^(t−1)−yihi=∂2L[yi,y^i(t−1)]∂(y^i(t−1))2=1

但是前面的t-1颗树,都有y^(t1)i=y^(t2)i+ηft1(xi)y^i(t−1)=y^i(t−2)+ηft−1(xi) ,由此计算y^(t1)iy^i(t−1)

然后,通过最大增益生成树ftft

XGBoost(eXtreme Gradient Boosting)是一种基于梯度提升树的机器学习算法,它在各种机器学习竞赛中表现出色。下面是XGBoost原理和公式推导: 1. 原理XGBoost是一种集成学习算法,通过组合多个弱学习器(决策树)来构建一个强学习器。它采用了梯度提升的思想,每一轮迭代都通过拟合前一轮模型的残差来训练新的模型,然后将新模型加入到集成中。 2. 损失函数: XGBoost使用了一种特殊的损失函数,称为目标函数。目标函数由两部分组成:损失函数和正则化项。常用的损失函数有平方损失函数、逻辑损失函数等。 3. 梯度提升: 在XGBoost中,每个决策树都是通过梯度提升来构建的。梯度提升的过程可以简单描述为以下几个步骤: - 初始化模型:将初始预测值设置为常数,通常为训练集样本的平均值。 - 计算残差:计算当前模型对训练集样本的预测值与真实值之间的差异,得到残差。 - 拟合决策树:使用残差作为目标变量,拟合一个决策树模型。 - 更新模型:将新的决策树模型加入到集成中,并更新模型的预测值。 - 重复以上步骤,直到达到预定的迭代次数或满足停止条件。 4. 正则化: 为了防止过拟合,XGBoost引入了正则化项。正则化项由两部分组成:树的复杂度和叶子节点权重的L1或L2正则化。通过控制正则化参数,可以平衡模型的复杂度和拟合能力。 5. 公式推导XGBoost的公式推导涉及到目标函数、损失函数、正则化项等,具体推导过程较为复杂。你可以参考XGBoost的论文《XGBoost: A Scalable Tree Boosting System》中的相关推导部分,详细了解公式推导的细节。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值