基本思想:“分而治之”。集成学习能够根据不同的单分类器产生的分类决策边界,产生一个集成分类器的边界,集成模型中的单个分类器起到了“分”的作用。
优势:有效降低单个分类器模型的预测误差。
其中,m为模型数量,r为模型的错误率。当r=0.4时,集成学习模型规模和误差曲线如下图。
需要满足的两个条件:
①分类器之间应该具有预测差异性,这样才能提高模型的集成精确度;
②每个个体分类器的分类精度必须大于0.5,否则会起到负面效果。
基本思想:“分而治之”。集成学习能够根据不同的单分类器产生的分类决策边界,产生一个集成分类器的边界,集成模型中的单个分类器起到了“分”的作用。
优势:有效降低单个分类器模型的预测误差。
其中,m为模型数量,r为模型的错误率。当r=0.4时,集成学习模型规模和误差曲线如下图。
需要满足的两个条件:
①分类器之间应该具有预测差异性,这样才能提高模型的集成精确度;
②每个个体分类器的分类精度必须大于0.5,否则会起到负面效果。