关于xgboost的零碎记录
最新推荐文章于 2025-07-21 19:08:46 发布
本文介绍了DART(Dropout Additive Regression Trees)提升算法的工作原理及其优缺点。DART是一种集成学习方法,通过随机丢弃部分基学习器(树)来达到防止过拟合的目的。相较于传统的GBTree方法,DART训练速度较慢且预测稳定性较差,但在某些场景下能有效提高模型泛化能力。

2620

被折叠的 条评论
为什么被折叠?



