Boosting

原理

h∈{-1,1} 

思想:弱学习器组合成强学习器(团队力量大于个人)

                                                     

                                                                   H(x)=sign(h^{1}(x)+h^{2}(x)+h^{3}(x))

 

情况下很好;情况下,比原来更糟;

1 选取特地分类器

DATA-------->h1        DATA+exaggeration of h1 error----->h2       DATA+exaggeration of h2 error----->h3

2 GET OUT THE VOTE

                                                   

3  DESCISION  TREEN  STUMP

dim=the number of lines can put in   *2

boosting可用于任何分类器

                                                             w_{i}^{1}=\frac{1}{N}\\\ \varepsilon=\sum_{error}\frac{1}{N}=\sum_{error}w_{i}   初始状态 不知道信息 均匀分配;夸大错误的权重   Σwi=1  保证是一个分布

4  H(x)=sign(\sum_{i}\alpha ih_{x}^{i})计分多项式

集体中并非每个人都会被同等对待,专家在各自领域很精通

5  流程图:

                                                              

 

                                              w_{i}^{t+1}=w_{i}^{t}/z exp\{-\alpha^{t}h^{t}(x) y(x)\}\\ =w_{i}^{t}/z\{\sqrt{\frac{1-e^{\varepsilon }}{e^{\varepsilon }}}\ if\ right;else\ \sqrt{\frac{e^{\varepsilon }}{1-e^{\varepsilon }}}\}\\ \ min\ error\ for\ whole\ thing\ if\ \alpha ^{i}=1/2ln(\frac{1-e^{\varepsilon }}{e^{\varepsilon }})  1/2  计算方便

由分布函数的归一性    可以导出:  \sum w^{t+1}=1/2\sum w^{t}   更新后的权重之和是更新前正确答案的缩放版本(1/2   即不会过度拟合)

Adaboost

弱分类器:只有一个分裂的决策树  数值优化:牛顿迭代   L2损失函数

加法模型,指数函数为损失函数,学习算法为前向分步

关于误差 :训练误差有界  测试误差随训练次数变化     公式看:T 越大 会过拟合  根据奥卡姆剃刀原理最简单的是对的  选择T小的  而实际是训练次数越多 模型越好---待研究!

Xgboost:

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值