前言
在解决分类问题时,假如分类模型不够强大,对样本的分类结果就不会很理想。这时如果我们多找一些分类模型,让它们一起做决策,模型强度会不会高一点呢?
集成学习就是把多种分类器按策略组合起来,并根据所有分类器的分类结果做出最后的判断。
如下图,三种分类器的分类结果都有一点点错误,如果把三类组合在一起就可以完美地把所有形状都区分开,而且分割曲线也较为平滑。
集成学习属于监督学习中的分类问题,分为boosting和bagging两大类。
一、Bagging
如何得到不同的分类器呢?我们可以调整