集成学习的一些算法

基本思想:“分而治之”。集成学习能够根据不同的单分类器产生的分类决策边界,产生一个集成分类器的边界,集成模型中的单个分类器起到了“分”的作用。

优势:有效降低单个分类器模型的预测误差。

 其中,m为模型数量,r为模型的错误率。当r=0.4时,集成学习模型规模和误差曲线如下图。

需要满足的两个条件:

①分类器之间应该具有预测差异性,这样才能提高模型的集成精确度;

每个个体分类器的分类精度必须大于0.5,否则会起到负面效果。

(一)Bagging

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值