划重点——AdaBoost + 决策树 = 提升树
Gradient Boosting + 决策树 = GBDT
GBDT(Gradient Boosting Decision Tree)
1.算法原理:GBDT(梯度提升决策树),是一种基于boosting串行式的集成学习方法,通过采用加法模型(即基函数的线性组合),以及不断减小训练过程产生的残差来达到将数据分类或者回归的算法。
图-GBDT的训练过程
GBDT可认为是一个迭代残差树,通过多轮迭代,每轮迭代产生一个弱分类器(CART TREE),核心就是每个分类器在上一轮分类器的残差基础上进行训练,这里的残差就是当前模型的负梯度值。 <