AdaBoost元算法

一.集成学习概述

1.集成学习算法定义

集成学习----将若干个弱分类器通过一定的策略组合之后产生一个强分类器
分类:bagging(装袋) boosting()

2.装袋

有放回的随机抽样,弱分类器上有的被选择有的没有。
实例:随机森林(在bagging的样本随机采样基础上,又加上了特征的随机选择)

3.boosting(提升)

一个迭代的过程,把弱分类器聚集到很难分类的样本上,给每一个训练样本赋予一个权重,在每一轮结束时自动的调整权重
实例:Adaboost、GBDT、XGBoost算法

4.结合策略

平均法
投票法(相对多数投票法:少数服从多数、绝对多数投票法:票数过半+少数服从多数、加权投票法)
学习法:使用stacking结合策略

二:Adaboost(自适应boost)

1.计算样本权重

2.计算错误率

在训练集上训练出一个弱分类器,并计算分类器的错误率

3.计算弱分类器权重

为当前分类器赋予权重值alpha

4.调整权重值

三:基于单层决策树构建弱分类器

1.构建简单数据集

2.构建单层决策树

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值