带你搞懂GBDT算法原理

GBDT是一种Boosting家族的算法,通过负梯度拟合不断优化损失函数。它利用CART回归树模型,适用于回归和分类问题。算法流程包括负梯度计算、CART树拟合和损失函数的最小化。GBDT的优点包括处理不同类型数据的能力、高预测准确性和对异常值的鲁棒性,但训练过程难以并行。

一、引言

  在集成学习原理介绍中,简单的介绍了根据个体学习器学习方式不同划分的两大类集成学习方法,个体学习器间存在强依赖关系、必须串行生成的序列化方法,如Boosting;个体学习器间不存在强依赖关系、可同时生成的并行化方法,如Bagging。
  回顾一下Boosting算法的学习机制:先从初始训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的的训练样本在后续受到更多关注,然后基于调整后的样本分布训练下一个基学习器;重复进行,直到基学习器数目达到事先指定的值T,最终将这T个基学习器加权结合。
  在Adaboost算法原理小结,介绍了Boosting家族的一个重要算法Adaboost,今天我们来看一看Boosting家族中另一个更加常用的的算法GBDT。

二、GBDT概述

  GBDT全称Gradient Boosting Decison Tree,同为Boosting家族的一员,它和Adaboost有很大的不同。Adaboost 是利用前一轮弱学习器的误差率来更新训练集的权重,这样一轮轮的迭代下去,简单的说是Boosting框架+任意基学习器算法+指数损失函数。GBDT也是迭代,也使用了前向分布算法,但是弱学习器限定了只能使用CART回归树模型,同时迭代思路和Adaboost也有所不同,简单的说Boosting框架+CART回归树模型+任意损失函数
  GBDT的思想可以用一个通俗的例子解释,假如有个人30岁,我们首先用20岁去拟合,发现损失有10岁,这时我们用6岁去拟合剩下的损失,发现差距还有4岁,第三轮我们用3岁拟合剩下的差距,差距就只有一岁了。如果我们的迭代轮数还没有完,可以继续迭代下面,每一轮迭代,拟合的岁数误差都会减小。

三、负梯度拟合

  在GBDT的迭代中,假设我们前一轮迭代得到的强学习器是 Ht1(x) H t − 1 ( x ) , 损失函数是 L(f(x),Ht1(x)) L ( f ( x ) , H t − 1 ( x ) ) , 我们本轮迭代的目标是找到一个CART回归树模型的弱学习器 ht(x) h t ( x ) ,让本轮的损失 L(f(x),ht(x)+Ht1(x)) L ( f ( x ) , h t ( x ) + H t − 1 ( x ) ) 最小,那么GBDT是如何实现让本轮的损失最小的呢?
  针对这个问题,大牛Freidman提出了用损失函数的负梯度来拟合本轮损失 L(f(x),ht(x)+Ht1(x)) L ( f ( x ) , h t ( x ) + H t − 1 ( x ) ) 的近似值,进而拟合一个CART回归树。第 t 轮的第 i 个样本的损失函数的负梯度表示为


rti=L(yi,ht1(xi))ht1(xi) r t i = − ∂ L ( y i , h t − 1 ( x i ) ) ∂ h t − 1 ( x i )

  利用 (xi,rti),i=1,2,,m ( x i , r t i ) , i = 1 , 2 , ⋯ , m ,我们可以拟合一棵CART回归树,得到了第 t 棵回归树,其对应的叶结点区域 Rtj,j=1,2,,J R t j , j = 1 , 2 , ⋯ , J 。其中 J J 为叶子结点的个数。
  针对每一个叶子结点里的样本,我们求出使损失函数最小,也就是拟合叶子结点最好的输出值 ctj c t j


ctj=argmi
GBDT(Gradient Boosting Decision Tree)是一种集成学习方法,它通过迭代的方式构建多棵决策树,每棵树都试图修正前一棵树的错误。GBDT的核心思想是利用梯度下降法来最小化损失函数,从而逐步逼近最优解。下面将详细解释GBDT的工作原理及其工作机制。 ### 1. GBDT的基本概念 GBDT是由多个决策树组成的强学习器,每个决策树被称为基学习器。GBDT通过加法模型的形式将这些基学习器组合起来,最终的预测结果是所有基学习器的加权和。GBDT可以用于回归问题和分类问题,其中回归问题通常使用CART回归树,而分类问题则使用CART分类树。 ### 2. GBDT的工作机制 GBDT的工作机制可以分为以下几个步骤: #### 2.1 初始化模型 GBDT的初始模型是一个简单的常数,通常是目标变量的均值(对于回归问题)或对数几率(对于分类问题)。这个初始模型作为后续迭代的基础。 #### 2.2 计算负梯度 在每一轮迭代中,GBDT计算当前模型的预测值与真实值之间的残差(即负梯度)。这个残差表示了当前模型在哪些地方犯了错误,需要通过新的决策树来进行修正。 #### 2.3 构建决策树 根据计算出的负梯度,构建一棵新的决策树。这棵树的目标是尽可能好地拟合这些残差。决策树的构建过程与传统的决策树类似,但在这里,分裂节点的标准是使得残差的平方损失最小化。 #### 2.4 更新模型 将新构建的决策树加入到现有的模型中,形成新的模型。更新的方式是将新树的预测值乘以一个学习率(learning rate),然后加到现有模型的预测值上。学习率控制了每一步更新的幅度,有助于防止过拟合。 #### 2.5 重复迭代 重复上述步骤,直到达到预定的迭代次数或模型性能不再显著提升为止。每次迭代都会生成一棵新的决策树,这些树共同构成了最终的GBDT模型。 ### 3. GBDT的数学推导 假设我们有一个训练集 $ \{(x_1, y_1), (x_2, y_2), \ldots, (x_n, y_n)\} $,其中 $ x_i $ 是输入特征向量,$ y_i $ 是对应的标签值。GBDT的目标是找到一个函数 $ F(x) $,使得损失函数 $ L(y, F(x)) $ 最小化。 GBDT通过加法模型的形式表示 $ F(x) $: $$ F(x) = \sum_{m=1}^{M} \gamma_m h_m(x) $$ 其中 $ h_m(x) $ 是第 $ m $ 棵决策树,$ \gamma_m $ 是该树的权重,$ M $ 是树的总数。 在每一轮迭代中,GBDT计算当前模型的负梯度: $$ r_i = -\left[ \frac{\partial L(y_i, F(x_i))}{\partial F(x_i)} \right]_{F(x) = F_{m-1}(x)} $$ 然后,使用这些负梯度 $ r_i $ 作为新的标签值,构建第 $ m $ 棵决策树 $ h_m(x) $。最后,更新模型: $$ F_m(x) = F_{m-1}(x) + \eta \cdot \gamma_m h_m(x) $$ 其中 $ \eta $ 是学习率,用于控制每一步更新的幅度。 ### 4. GBDT的优势 GBDT之所以在许多机器学习任务中表现出色,主要归功于以下几个优势: - **高精度**:GBDT通过不断修正前一棵树的错误,能够在复杂的数据集上取得较高的预测精度。 - **自动特征组合**:决策树能够自动组合多个特征,发现特征之间的非线性关系。 - **处理缺失值**:决策树算法可以很好地处理字段缺失的数据,无需额外的预处理。 - **较少的特征工程**:GBDT对特征的要求较低,可以不用做特征标准化,也不必关心特征间是否相互依赖。 ### 5. GBDT的应用场景 GBDT广泛应用于各种机器学习任务中,包括但不限于: - **回归问题**:如房价预测、销量预测等。 - **分类问题**:如用户流失预测、广告点击率预测等。 - **推荐系统**:如个性化推荐、排序模型等。 ### 6. GBDT的实现示例 以下是一个简单的GBDT回归模型的Python实现示例: ```python from sklearn.ensemble import GradientBoostingRegressor from sklearn.model_selection import train_test_split from sklearn.metrics import mean_squared_error import numpy as np # 生成示例数据 np.random.seed(0) X = np.random.rand(100, 10) y = np.sin(X[:, 0]) + np.random.normal(0, 0.1, 100) # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 创建GBDT回归模型 gbdt = GradientBoostingRegressor(n_estimators=100, learning_rate=0.1, max_depth=3, random_state=42) # 训练模型 gbdt.fit(X_train, y_train) # 预测 y_pred = gbdt.predict(X_test) # 评估模型 mse = mean_squared_error(y_test, y_pred) print(f"Mean Squared Error: {mse}") ``` ###
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值