0 xgboost介绍
xgboost 全称extreme gradient boost,指的是极值梯度提升,利用的集成学习的思想,本文介绍主要分为三步:模型,策略和算法
1 模型
xgboost是分类回归树进行组合
(1)预测模型是根据集成学习的推广,如下所示
![]()
其中yi
指的是第i个样本的预测的结果,K表示K个树, fk
是指第k的树的预测结果
(2)损失函数也是集成学习的推广,如下所示:
![]()
2 策略
对于加法策略其预测模型可以表示成:(第i个样本为例)
(1)初始化:![]()
(2)当模型中有一棵树:![]()
(3)当模型中有两棵树:![]()
…
(4)当模型中有t棵树: ![]()
损失函数,当加入t棵树的时候,前t-1棵树的训练已经完成,所以当加入第t棵树的时候,损失函数表示如下:
![]()
当损失函数采用均方误差的时候
![]()
![]()
对于单个树来说,模型如下所示:![]()
该树的负责度可以成

故可得xboost目标函数如下:

3 求解
因为需要求解目标函数的最小值,就需要进行求导,主要使用泰勒展开式子:
![]()
将误差函数的
看做∆x
,则
![]()
![]()
令
= gi
,
= hi
,对于第t棵树木,
是常量,所以误差函数可以简化为:
![]()
可以得到:
![]()
对
求偏导,得到最后的结果
参考的博客: https://blog.youkuaiyun.com/huibeng7187/article/details/77588001
XGBoost详解
本文详细介绍XGBoost(极值梯度提升)的概念及其工作原理,包括模型构建、优化策略及求解过程。XGBoost是一种强大的机器学习算法,通过集成学习的方式提升模型的预测能力。
3579

被折叠的 条评论
为什么被折叠?



