16、损失最小化与提升算法的泛化

损失最小化与提升算法的泛化

在机器学习领域,损失最小化是一个核心目标。不同的算法在实现损失最小化时采用了不同的策略,而提升算法(Boosting)在这方面有着独特的表现。本文将深入探讨功能梯度下降(Functional Gradient Descent)以及逻辑回归(Logistic Regression)与提升算法的紧密联系,同时介绍如何利用这些方法进行条件概率的估计。

功能梯度下降

AdaBoost算法可以从坐标下降(Coordinate Descent)的角度来理解,即将其视为对特定优化函数的坐标下降最小化。然而,这种观点在处理其他损失函数时可能会遇到计算困难,因为找到沿着最佳坐标的最佳调整并不容易。功能梯度下降为AdaBoost提供了另一种视角,并且这种新视角可以推广到其他损失函数,克服坐标下降视角可能存在的计算难题。

不同的泛化方式

在坐标下降视角中,目标函数被视为一组参数 $\lambda_1, \ldots, \lambda_N$ 的函数,这些参数代表了空间 $H$ 中所有基函数的权重。所有的优化操作都是通过操纵这些参数来实现的。

而新的视角则聚焦于整个函数,而非一组参数。目标函数 $L$ 现在将另一个函数 $F$ 作为输入。以与AdaBoost相关的指数损失为例:
[L(F) = \frac{1}{m} \sum_{i=1}^{m} e^{-y_i F(x_i)}]
这里,$L$ 是一个泛函,即其输入参数本身是一个函数,目标是找到使 $L$ 最小化的 $F$(可能对 $F$ 有一些约束)。

为了优化上述方程,我们只关心 $F$ 在 $x_1, \ldots, x_m$ 处的值。因此

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值