集成算法

集成算法通过结合多个分类器提升模型性能。Averaging方法如Bagging(随机森林)采用有放回抽样创建独立的模型,然后取平均结果或投票决定输出。Boosting方法如AdaBoost和Gradient Boosting(GBDT)则构建有依赖关系的弱学习器,逐步减少偏差。XGBoost和Adaboost是现代集成学习的热门选择。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

集成算法是指利用多个分类器的结果,增强模型的泛化能力和健壮性。


集成方法常分为两类:
  1. averging methods:平均法的原则是: 独立的构建几个学习器,然后平均他们的预测。通常,组合的学习器要比任何一个单个的学习器要好,因为它降低了方差。                                                                                                                                                                 其中的代表:bagging 方法,随即森林
  2. boosting methods:学习器依次构建,试图降低组合的学习器的偏差。                                                                                                                                        其中的代表:AdaBoost,Gradient Tree Boosting

boosting派系,它的特点是各个弱学习器之间有依赖关系。bagging流派,它的特点是各个弱学习器之间没有依赖关系,可以并行拟合。

平均法原则(average methods):

1. bagging算法:

①  Bagging又叫自助聚集,是一种根据均匀概率分布从数据中重复抽样(有放回)的技术。

②  每个抽样生成的自助样本集上,训练一个基分类器;对训练过的分类器进行投票,将测试样本指派到得票最高的类中(或者是结果的平均值)。

③  每个自助样本集都和原数据一样大

④  有放回抽样,一些样本可能在同一训练集中出现多次,一些可能被忽略。

也就是说,bagging算法是随机放回抽样,训练集之间相互独立,得到独立的多个模型,如果模型用于分类,则找出多个分类器投票最多的结果,作为最终结果;如果模型用于回归预测,则取模型结果的平均数作为结果。

2.




传统的集成算法一般是bagging和boost方法,现在比较流行的是随机森林()和梯度提升树(Gradient Boosting Decison Tree, 以下简称GBDT)


XGBoost

Adaboost













轻松看懂机器学习十大常用算法:

http://blog.jobbole.com/108395/

http://www.52ml.net/10052.html

https://blog.youkuaiyun.com/jiejinquanil/article/details/52270178

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值