Adaboost & gradient boosting学习总结

本文是关于Adaboost和Gradient Boosting的学习总结。Adaboost算法通过协调弱学习器形成强学习器,训练误差逐渐收敛。Gradient Boosting则是一种广义的框架,适用于回归问题。文中探讨了Adaboost的训练误差与泛化误差,并指出其不易过拟合。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

纸上得来终觉浅,觉知此事要躬行。综上,我什莫都不懂.这仅仅是个人的学习防忘笔记

Adaboost

关于 Adaboost 的算法描述其实很简单,有趣的是的它的误差分析:

algorithm

adaboost

其中

ϵ t = P r { i ∼ D t } [ h t ( x i ) ≠ y i ] = ∑ D t ( i ) I ( h t ( x i ) ≠ y i ) α t = 2 − 1 log ⁡ ( 1 − ϵ t ϵ t ) \begin{aligned} \epsilon_t &= Pr_\{i\sim D_t\}[h_t(x_i)\ne y_i]\\ &=\sum D_t(i)I(h_t(x_i)\ne y_i)\\ \alpha_t &= 2^{-1}\log (\frac{1-\epsilon_t}{\epsilon_t}) \end{aligned} ϵtαt=Pr{ iDt}[ht(xi)̸=yi]=Dt(i)I(ht(xi)̸=yi)=21log(ϵt1ϵt)

PS : 稍后会证明,为什么, α t \alpha_t αt 取这个值

training error

第一个不等式就不说了,分析,equal 和not equal 两种情况就好,我们来看第二个等式。

其实第二个等式非常简单,我们只需要将 D t D_t Dt 的递推式展开就好了:

D 2 ( i ) = m − 1 exp ⁡ ( − α 1 y i h 1 ( x i ) ) Z 1 , Z t   i s   n o r m l i z e   t e r m , a   c o n s t , f o r   i ∈ 1 , . . . , T D 3 ( i ) = D 2 ( i ) exp ⁡ ( − α 2 y i h 2 ( x i ) ) Z 2 = m − 1 exp ⁡ ( − y i ( α 1 h 1 ( x i ) + α 2 h 2 ( x i ) ) ) Z 1 Z 2 D T + 1 = m − 1 exp ⁡ ( − y i ( ∑ α t h t ( x i ) ) ) ∏ t Z t b e c o u s e ∑ i D t ( i ) = 1 , s u m   a t   l e f t   t e r m   a n d   r i g h t   t e r m ∏ t Z t = ∑ i m − 1 exp ⁡ ( − y i ( ∑ α t h t ( x i ) ) ) \begin{aligned} D_2(i)&=\frac{m^{-1}\exp (-\alpha_1y_ih_1(x_i))}{Z_1},Z_t\ is\ normlize\ term,a \ const,for\ i \in {1,...,T}\\ D_3(i)&=\frac{D_2(i)\exp(-\alpha_2y_ih_2(x_i))}{Z_2}\\ &=\frac{m^{-1}\exp(-y_i(\alpha_1h_1(x_i)+\alpha_2h_2(x_i)))}{Z_1Z_2}\\ D_{T+1}&=\frac{m^{-1}\exp(-y_i(\sum \alpha_th_t(x_i)))}{\prod_t Z_t}\\ becouse \sum_i D_t(i)=1,& sum\ at\ left\ term\ and\ right\ term\\ \prod_t Z_t&=\sum_i m^{-1}\exp(-y_i(\sum \alpha_th_t(x_i))) \end{aligned} D2(i)D3(i)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值