机器学习 | GBDT

一.基本原理

通过多轮迭代,每轮迭代产生一个弱分类器,每个分类器在上一轮分类器的残差基础上进行训练,弱分类器一般会选择cart回归树

核心:每一棵树都建立在之前所学的所有树的绝对和残差,这个残差就是一个加预测值后的真实值的累加量

二.优缺点

优点

  • 预测阶段的计算速度快,树与树之间可并行化计算
  • 在分布稠密的数据集上,泛化能力和表达能力都很好,这使得GBDT在Kaggle的众多竞赛中,经常名列榜首
  • 采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自动发现特征间的高阶关系
  • 可以灵活处理各种类型的数据,包括连续值和离散值
  • 使用一些比较strong的损失函数,比如Huber损失函数和Quantile损失函数,对异常数值的鲁棒性非常强
  • 相对于SVM来说,在相对较少的调参时间下,预测的准确度较高

缺点

  • GBDT在高维稀疏的数据集上,表现不如支持向量机或者神经网络
  • GBDT在处理文本分类特征问题上,相对其他模型的优势不如它在处理数值特征时明显
  • 训练过程需要串行训练,只能在决策树内部采用一些局部并行的手段提高训练速度
  • 由于弱学习器之间存在依赖关系,难以并行训练数据

三.适用场景

  • 可以用于筛选特征
  • 几乎可用于所有的回归问题
  • 可以用于二分类问题

四.推导

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值