1118 day4

本文围绕GBDT算法展开,介绍其原理,即通过多棵树拟合残差得到预测值;列举常用损失函数如MAE、MSE、huber损失;说明可将分类问题转化为logistic回归用于分类;指出不适合高维稀疏特征的原因是难以划分特征;还分析了其优缺点。

1.简述GBDT原u理。

首先根据现有的数据训练树一棵树,然后去计算真实值和预测值的差值,也就是残差,然后下一棵树去拟合该残差,重复直至残差为0。

所有弱分类器的结果相加等于预测值,也就是说,每一个分类器拟合的是残差;
2.GBDT常用损失函数有哪些?

MAE,MSE,huber损失
3.GBDT如何用于分类?

将分类问题转化成logistic回归问题即可
4.为什么GBDT不适合使用高维稀疏特征?

难以进行特征划分
5.GBDT算法的优缺点?

优点:
      并行预测带来的速度提升
      不需要进行特殊的数据预处理。可以自动发现特征之间的高阶关系
       在稠密数据集上,泛化能力和表达能力都很好
缺点:
      在稀疏数据集上表现不如svm或神经网络
      训练过程串行,只能在决策树内部采用局部并行的手段提高训练速度
      对异常值过于敏感,所以一般回归类的损失函数会用绝对损失或者huber损失函数来代替平方损失函数

正解:

 

 

 

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值