【机器学习】集成学习(三)----前向分步算法、提升树与GBDT

对于前一篇的AdaBoost算法我们其实可以这样理解,模型是加法模型、损失函数为指数函数、学习算法为前向分步算法时的二类分类学习方法。其实加法模型就是基分类器的线性组合啦,那么前向分步算法是什么呢?

【加法模型】

我们将 f(x)=m=1Mβmb(x;γm) f ( x ) = ∑ m = 1 M β m b ( x ; γ m ) 作为加法模型,其中 b(x;γm) b ( x ; γ m ) 为基函数, γm γ m 为基函数的参数, βm β m 为基函数的系数, βm β m 表示着对应的基函数在加法模型 f(x) f ( x ) 中的重要性。

【前向分步算法】

基本思想:

一 般 来 说 :
在给定训练数据和损失函数 L(y,f(x)) L ( y , f ( x ) ) 的条件下,学习加法模型 f(x) f ( x ) 成为经验风险极小化(即损失函数极小化问题)
     minβm,γmi=1NL(yi,m=1Mβmb(xi;γm)) min β m , γ m ∑ i = 1 N L ( y i , ∑ m = 1 M β m b ( x i ; γ m ) )
这 里 是 要 最 小 化 每 一 步 生 成 的 基 函 数 的 损 失 函 数 之 和
但 是 ! 这 通 常 是 一 个 很 复 杂 的 问 题 , 因 此 提 出 前 向 分 步 算 法 的 思 想 :
前向分步算法求解这一优化问题的想法是:由于学习的是加法模型,如果能从前向后每一步只学习一个基函数及其系数,逐步逼近优化目标函数式,即 minβm,γmi=1NL(yi,m=1Mβmb(xi;γm)) min β m , γ m ∑ i = 1 N L ( y i , ∑ m = 1 M β m b ( x i ; γ m ) ) ,那么就可以简化优化的复杂度。因此每步我们只需要优化 minβ,γi=1NL(yi,βb(xi;γ)) min β , γ ∑ i = 1 N L ( y i , β b ( x i ; γ ) ) 即可。
() 也 就 是 说 我 每 次 学 习 一 个 基 函 数 ( 基 分 类 器 ) , 我 只 针 对 这 个 基 分 类 器 进 行 优 化 ,
使

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值