机器学习笔记:Boosting

本文介绍了集成学习的基本概念,包括Boosting方法的特点及Adaboost、GBDT等算法的工作原理。通过组合多个弱学习器来形成一个强学习器,提高整体预测准确率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

格式驾驭不了,图片大小不会改,可以直接看我的有道笔记:http://note.youdao.com/noteshare?id=8880899dec3d610a02c4988aba1e4e74

 

  • 集成学习:
    • 通过训练若干个弱学习器,并通过一定的结合策略,从而形成一个强学习器
  • Boosting特点
    • 一堆弱分类器组合(提升boosting)成一个强分类器
    • 不断地在错误中学习,迭代降低犯错概率(改变权值)
  • Adaboosting(Adaptive Boosting):
    • 在之前的学习器的基础上给变样本权重,增加那些被分类错误的样本比重,降低正确样本比重,学习器重点关注被分类错误的样本。最后通过将这些学习器通过加权组合成一个强学习器,具体的,分类正确率高的学习器权重较高,分类正确率低的学习器权重较低。
    • 算法流程:

 

 

  • GBDT(Grasient Boosting Decision Tree ,梯度提升决策树)
    • 迭代决策树算法,有多颗决策树组成,所有树结论累加起来做最终答案
    • 回归树不是分类树,用来做回归预测,调整后也颗用于分类

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值