统计学习方法 第八章 提升方法

本文深入探讨了提升方法,包括基本思路、AdaBoost算法的详细解释,以及提升树和梯度提升的概念。AdaBoost通过调整训练样本权重,结合弱分类器形成强分类器,而梯度提升则利用损失函数的负梯度来优化模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

第八章 提升方法

  • 在分类问题中,它通过改变训练样本的权重,学习多个分类器,并将这些分类器线性组合,提高分类的性能,

8.1 提升方法AdaBoost

  • 强可学习 & 弱科学习:
    • 在概率近似正确(probably approximately correct, PAC)学习的框 架中,一个概念(类),如果存在一个多项式的学习算法能够学习 它,并且正确率很高,称这个概念是强可学习的;
    • 一个概念(类),如果存在一个多项式的学习算法能够学习它,学 习的正确率仅比随机猜测略好,则称这个概念是弱可学习的。
    • 在PAC学习的框架下,一个概念是强可学习的充分必要条件是这个 概念是弱可学习。
1. 提升方法的基本思路
  • 怎么获得不同的弱分类器:
    • 使用不同的弱学习算法得到不同基本学习器
      • 参数估计、非参数估计…
    • 使用相同的弱学习算法,但用不同的参数
      • K-Mean不同的K,神经网络不同的隐含层…
    • 相同输入对象的不同表示凸显事物不同的特征
    • 使用不同的训练集
      • 装袋(bagging) 提升(boosting)
  • 如何将弱分类器组合成一个强分类器:
    • 多专家组合
      • 一种并行结构
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值