AdaBoost算法
核心思想
- 集成学习,将多个分类器依靠权重组合起来使用,大大提高准确性
步骤
- 先初始化样本权重
- 从多个分类器中选择误分率最低的分类器进行样本划分
- 计算误分率
- 根据误分率计算此分类器的权重
- 更新样本权重
- 最后经过上面几步迭代再组合起来就可得到最后的基学习器
算法过程
整个算法就是将每次分错的样本权重增大,而分对的样本权重减小,即重视分错的样本用于以后的迭代学习。同时对于误分率越低的分类器在最后的分类器组合中占的权重越大
如下链接对这个算法讲解非常好
https://blog.youkuaiyun.com/guyuealian/article/details/70995333