GBDT-梯度提升决策树

文章详细介绍了梯度提升决策树(GBDT),一种基于boosting的加法模型,通过前向分布算法训练CART树,每次迭代专注于拟合前一棵树的残差。文章涵盖了CART树的基本原理、GBDT的训练过程以及目标函数的优化策略。

梯度提升决策树(Gradient Boosting Decision Tree, GBDT)是一种基于boosting集成学习思想的加法模型,训练时采用前向分布算法进行贪婪学习,每次迭代都学习一棵CART树来拟合之前t−1t-1t1棵树的训练样本真实值的残差。

CART(Classification and Regression tree)

最小二乘回归算法
输入:训练数据集DDD
输出:回归树f(x)f(x)f(x)
在训练数据集所在的输入空间中,递归地将每个区域划分为两个子区域并决定每个子区域的输出值,构建二叉决策树:

  1. 选择最优切分变量jjj与切分点sss,求解:
    min⁡i,s[min⁡C1∑xi∈R1(j,s)(yi−c1)2+min⁡C2∑xi∈R2(j,s)(yi−c2)2]\min_{i,s} [\min_{C_{1}}\sum_{x_i\in R_1(j,s)}(y_i-c_1)^2+\min_{C_2}\sum_{x_i \in R_2(j,s)}(y_i-c_2)^2 ]i,smin[C1minxiR1(j,s)(yic1)2+C2minxiR2(j,s)(yic2)2]
    遍历变量jjj,对固定的切分变量jjj扫描切分点sss,选择使上式达到最小值的对
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值