梯度提升决策树(Gradient Boosting Decision Tree, GBDT)是一种基于boosting集成学习思想的加法模型,训练时采用前向分布算法进行贪婪学习,每次迭代都学习一棵CART树来拟合之前t−1t-1t−1棵树的训练样本真实值的残差。
CART(Classification and Regression tree)
最小二乘回归算法
输入:训练数据集DDD。
输出:回归树f(x)f(x)f(x)。
在训练数据集所在的输入空间中,递归地将每个区域划分为两个子区域并决定每个子区域的输出值,构建二叉决策树:
- 选择最优切分变量jjj与切分点sss,求解:
mini,s[minC1∑xi∈R1(j,s)(yi−c1)2+minC2∑xi∈R2(j,s)(yi−c2)2]\min_{i,s} [\min_{C_{1}}\sum_{x_i\in R_1(j,s)}(y_i-c_1)^2+\min_{C_2}\sum_{x_i \in R_2(j,s)}(y_i-c_2)^2 ]i,smin[C1minxi∈R1(j,s)∑(yi−c1)2+C2minxi∈R2(j,s)∑(yi−c2)2]
遍历变量jjj,对固定的切分变量jjj扫描切分点sss,选择使上式达到最小值的对

文章详细介绍了梯度提升决策树(GBDT),一种基于boosting的加法模型,通过前向分布算法训练CART树,每次迭代专注于拟合前一棵树的残差。文章涵盖了CART树的基本原理、GBDT的训练过程以及目标函数的优化策略。
最低0.47元/天 解锁文章
411

被折叠的 条评论
为什么被折叠?



