[机器学习]提升方法boosting

本文详细介绍了提升方法中的AdaBoost算法、前向分步算法以及提升树的概念,特别是作为决策树基函数的应用。文章还探讨了GBDT的原理,并对比了boosting与bagging的区别,以及随机森林的构建策略。通过理解这些,读者能够更好地掌握机器学习中的集成学习策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言(总结本文的原因):

1.之前听闻阿里面试官很喜欢问gbdt,gradient boosting descent tree

2. 统计学课学了boosting和bagging,总搞不清2个单词的区别

一、boosting  参考[1] chap8.1

1. 背景及定义:

在PAC(probably approximately correct)学习框架中,一个概念是强可学习的充要条件是这个概念是弱可学习的。

boosting就是将一个“弱学习算法"提升(boost)为一个”强学习算法"。

提升方法实际采用 加法模型+前向分步算法(详见 二、)

2. 代表:AdaBoost

adaptive boosting--自适应boosting算法,用于分类问题(具体见算法8.1)

3. 实践:[4]的chap7--AdaBoost

二、前向分步算法(forward stagewise algorithm)  参考[1] chap8.3

1. 前向分步算法用于优化加法模型时:学习加法模型时,从前向后,每一步只学习一个基函数及其系数,逐步逼近优化目标。(具体见算法8.2)

加法模型:基函数的线性组合

2. 与AdaBoost算法的关系:AdaBoost算法可看作--模型是加法模型,损失函数是指数函数,学习算法是前向分步算法时的二类分类学习方法。

三、提升树(boosting tree) 参考[1] chap8.4

1. 定义:以决策树为基函数的提升方法。用于分类问题+回归问题

2. 分类问题:将AdaBoost算法(一、2)中的基本分类器限制为二类分类树。

3. 回归问题:

1)回归问题的提升树算法(具体见算法8.3)

关键:每一轮都简单拟合当前模型的残差

2)回顾最小二乘回归树

[1]的chap5.5.1构建了CART回归树,关键:(1)二叉树,(

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值