首先XGBOOST,GBDT,RF都是集成算法,RF是Bagging的变体,与Bagging相比,RF加入了属性扰动,而XGBOOST,GBDT属于boosting.
---------------------------------------------------------------------------------------------------------------------------------------------------------------
RandomForest 与 GBDT 的区别:
相同点:
1.都由很多棵树组成
2.最终的结果是由多棵树一起决定的
不同点:
1.RandomForest中的树可以是分类树,也可以是回归树,而GBDT只能由回归树(CART)组成,这也说明GBDT各个树相加是有意义的
2.RandomForest中的树是并行生成的,而GBDT是串行生成的,GBDT中下一颗树要去拟合前一颗树的残差,所以GBDT中的树是有相关关系的,而RandomForest中的树的相关性依赖于Boostrap生成的样本子集的相关性
3.RandomForest 对异常值不敏感,GBDT敏感
4.

本文对比了三种集成算法:XGBOOST、GBDT和RandomForest。它们都是集成学习方法,但各自有其特点。RandomForest采用属性扰动并行生成树,对异常值不敏感;GBDT通过串行生成的回归树降低偏差;XGBOOST在优化上更进一步,支持线性分类器和二阶导数信息,引入正则项防止过拟合,并实现了并行化和缺失值处理策略。
最低0.47元/天 解锁文章
550

被折叠的 条评论
为什么被折叠?



