GBDT(Gradient Boosting Decision Tree)在数据分析和预测中的效果很好。它是一种基于决策树的集成算法。其中Gradient Boosting 是集成方法boosting中的一种算法,通过梯度下降来对新的学习器进行迭代。而GBDT中采用的就是CART决策树
一、Boosting
Boosting指把多个弱学习器相加,产生一个新的强学习器(如adaboost, GBDT, xgboost)。每一个弱学习器表示为 f i ( x ) f_{i}(x) fi(x),则Boost强学习器为
F ( x ) = ∑ f i ( x ) F(x)=\sum{f_{i}(x)} F(x)=∑fi(x)

GBDT是一种集成算法,通过结合多个弱决策树形成强学习器。它利用梯度下降法优化残差,每个新树的目标是修正前一轮的预测误差。优点包括处理非线性数据、对异常值的鲁棒性,但缺点是训练不易并行且高维数据下计算复杂度增加。
最低0.47元/天 解锁文章
1057

被折叠的 条评论
为什么被折叠?



