1.简述GBDT原u理。
首先根据现有的数据训练树一棵树,然后去计算真实值和预测值的差值,也就是残差,然后下一棵树去拟合该残差,重复直至残差为0。
所有弱分类器的结果相加等于预测值,也就是说,每一个分类器拟合的是残差;
2.GBDT常用损失函数有哪些?
MAE,MSE,huber损失
3.GBDT如何用于分类?
将分类问题转化成logistic回归问题即可
4.为什么GBDT不适合使用高维稀疏特征?
难以进行特征划分
5.GBDT算法的优缺点?
优点:
并行预测带来的速度提升
不需要进行特殊的数据预处理。可以自动发现特征之间的高阶关系
在稠密数据集上,泛化能力和表达能力都很好
缺点:
在稀疏数据集上表现不如svm或神经网络
训练过程串行,只能在决策树内部采用局部并行的手段提高训练速度
对异常值过于敏感,所以一般回归类的损失函数会用绝对损失或者huber损失函数来代替平方损失函数
正解:









本文围绕GBDT算法展开,介绍其原理,即通过多棵树拟合残差得到预测值;列举常用损失函数如MAE、MSE、huber损失;说明可将分类问题转化为logistic回归用于分类;指出不适合高维稀疏特征的原因是难以划分特征;还分析了其优缺点。
112

被折叠的 条评论
为什么被折叠?



