提升方法(下)提升树

本文详细介绍了提升树(boosting tree)的概念和算法,包括决策树作为基函数的提升方法,以及在分类和回归问题中的应用。文章通过具体案例展示了如何构建和优化提升树模型,特别是对于回归问题,采用平方误差损失函数的提升树算法,通过拟合残差逐步改进模型。同时,提到了梯度提升算法,这是一种处理一般损失函数的优化方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

提升方法采用加法模型(即基函数的线性组合)与前向分步算法。以决策树为基 函数的提升方法称为提升树(boosting tree)。对分类问题决策树是二叉分类树,对回归 问题决策树是二叉回归树。在AdaBoost的案例中看到的基本分类器x<v或x>v,可以看作是由一个根 结点直接连接两个叶结点的简单决策树,即所谓的决策树桩(decision stump)。

提升树 模型可以表示为决策树的加法模型:

提升树算法:

提升树算法采用前向分步算法。首先确定初始提升树f 0(x)=0,第m歩的模型是:

 

其中,fm-1(x)为当前模型,通过经验风险极小化确定下一棵决策树的参数Θm, 

下面讨论针对不同问题的提升树学习算法,其主要区别在于使用的损失函数不同。包 括用平方误差损失函数的回归问题,用指数损失函数的分类问题,以及用一般损失函数的 一般决策问题。

对于二类分类问题,提升树算法只需将AdaBoost算法中的基本分类器限制为二类 分类树即可,可以说这时的提升树算法是AdaBoost算法的特殊情况,这里不再细述。下面 叙述回归问题的提升树。

 

回归问题提升树使用以下前向分步算法: 

在前向分步算法的第m步,给定当前模型fm-1(x),需求解: 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

stephon_100

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值