提升算法、凸优化与信息几何:迭代投影视角下的AdaBoost
1. 引言
在机器学习领域,AdaBoost算法是一种强大的集成学习方法。传统上,我们常从坐标下降和函数梯度下降等角度理解AdaBoost,关注如何通过操作权重或迭代添加基函数来构建最终分类器。而今天,我们将从一个全新的视角——迭代投影算法,来深入探究AdaBoost的行为和动态特性。这种视角不仅能赋予AdaBoost算法几何直观,还能揭示其背后优美的数学结构。
2. 迭代投影算法基础
2.1 欧几里得类比
为了更好地理解迭代投影算法,我们先从一个简单的几何问题入手。假设给定一组关于点 $x \in R^m$ 的线性约束:
[
\begin{cases}
a_1 \cdot x = b_1 \
a_2 \cdot x = b_2 \
\cdots \
a_N \cdot x = b_N
\end{cases}
]
这些约束定义了 $R^m$ 中的一个线性子空间 $P$,即:
[P = {x \in R^m : a_j \cdot x = b_j, j = 1, \cdots, N}]
我们假设 $P$ 非空,称其为可行集。同时,给定一个参考点 $x_0 \in R^m$,问题是找到满足这 $N$ 个约束且离 $x_0$ 最近的点 $x$,即求解如下约束优化问题:
[
\begin{cases}
\minimize: |x - x_0| 2^2 \
\subject to: a_j \cdot x = b_j, j = 1, \cdot
超级会员免费看
订阅专栏 解锁全文

37

被折叠的 条评论
为什么被折叠?



