- Bagging和Boosting方法有什么区别?从方差和偏差角度如何理解?
- Bagging的采样是如何进行的,是有放回还是无放回?什么是袋外数据OOB?
- 随机森林一般采用哪种树模型来作为弱分类器?其在常规Bagging基础上做了哪些改进?
- CART树对于分类和回归问题采用的节点分裂准则是什么?
- 随机森林的优点和缺点有哪些?
- AdaBoost的核心思想是什么?具体过程是怎么实现的?
- 如何从模型、算法与策略三要素角度从新考虑AdaBoost?公式推导过程是怎么样的?
- 为什么说AdaBoost理论上不会产生过拟合现象?
- AdaBoost与GBDT都属于Boosting模型,它俩在设计思路上什么区别,有什么相同点?
- GBDT的设计思路是什么?
- GBDT对于分类和回归哪些方面存在不同?
- GBDT的树节点初始化取值针对于不同的损失函数有何不同?
- GBDT生成树时叶子节点的取值是如何设计的?为什么这么设计?
- 为什么说损失函数的数值优化可以看成是在函数空间而不是参数空间?
- XgBoost与GBDT有哪些不同点?有哪些相同点?
- XgBoost如何处理缺失值?
- XGBoost可以做特征选择,它是如何评价特征重要性的?
- XgBoost如何进行预剪枝?
- XgBoost在的精确贪婪分裂和近似分裂方法的是如何进行的?
- XgBoost列抽样是什么意思?
- XGBoost如何选择最佳分裂点?
- XgBoost的分布并行是如何进行的?
- XgBoost的目标函数是怎样进行转换的?
- XGBoost的延展性很好,怎么理解?
- 为什么树模型对特征缺失敏感度低?
- 随机森林和GBDT的异同点有哪些?
- 逻辑回归(LR)和GBDT的区别?
- XGBoost算法防止过拟合的方法有哪些?
- GBDT中哪些部分可以并行?
- LightGBM的直方图算法思想是什么?
- LightGBM带深度限制的Leaf-wise的叶子生长策略是什么意思?它比Xgboost有哪些好处?
- LightGBM的Gradient-based One-Side Sampling(基于梯度的单边采样)是什么意思?
- LightGBM的Exclusive Feature Bundling(互斥特征绑定)是什么意思?
Ensemble Tree模型(随机森林RF、AdaBoost、GBDT、XgBoost、Lightgbm)灵魂20问
最新推荐文章于 2024-05-27 21:06:38 发布