【统计学习方法】第八章 提升方法

博客介绍了boosting方法,它通过改变训练样本权重学习多个分类器并线性组合提高分类性能。重点阐述了Adaboost算法,包括解决改变训练数据权值分布和组合弱分类器的方法、算法特点、训练误差分析及另一种解释,该算法具有适应性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

基础概念

boosting方法是一种常用的统计学习方法,在分类问题中,它通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类的性能。

具体操作是:从弱学习算法出发,反复学习,得到一系列弱分类器(又称为基本分类器),然后组合这些弱分类器,构成一个强分类器。大多数的boosting方法都是改变训练数据的概率分布(训练数据的权值分布),针对不同的训练数据分布调用弱学习算法学习一系列弱分类器。

 

第八章 提升方法

 

1. Adaboost算法(Adaptive boosting)

对于boosting方法,两个关注的问题:

  1. 在每一轮如何改变训练数据的权值或概率分布;
  2. 如何将弱分类器组合成一个强分类器。

Adaboost解决上述两个问题的方法分别是:

  1. 对于第一个问题,提高前一轮弱分类器错误分类样本的权值,降低正确分类样本的权值
  2. 弱分类器的组合方式——加权多数表决,即哪个分类器误差率小的分类器权值大,分类误差率大的分类器权值小。

【Adaboost算法特点】

  • 不改变训练数据,仅改变训练样本的权值分布,使得训练数据在基本分类器的学习中起不同的作用;
  • 将基本分类器进行线性组合,构建最终的分类器。

【Adaboost算法步骤】
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

 

2. Adaboost算法训练误差分析

Adaboost算法不需要知道训练误差下界,与早期的boosting方法不同,Adaboost具有适应性,能适应弱分类器各自的训练误差率。
 

3. Adaboost算法解释

Adaboost算法的另一个解释:模型为加法模型,损失函数为指数函数,学习算法为前向分步算法时的二分类学习方法。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值