机器学习中的优化与学习模型
1 半无限线性规划的求解
在机器学习中,线性优化问题(LPs)经常以各种形式出现,特别是那些具有大量甚至无限约束的问题。一个具有 $m$ 个约束的线性规划可以表示为:
$$
\min_{x\in P_n} c^{\top}x
$$
$$
\text{with } a_j^{\top}x \leq b_j, \forall i = 1, \ldots, m
$$
这里,为了简化,假设 $x$ 的定义域是 $n$ 维概率单纯形 $P_n$。当约束的索引集 $J$ 有无限多个元素时,如 $J = \mathbb{R}$,形如 $a_j^{\top}x \leq b_j$(对于所有 $j \in J$)的优化问题被称为半无限线性规划(SILPs)。在有限情况下,约束可以用一个 $m$ 行 $n$ 列的矩阵来描述,从而可以直接求解线性规划。但在半无限线性规划中,约束通常以依赖于 $j$ 的函数形式给出,或者是隐式定义的,例如通过另一个算法的结果来定义。
在机器学习中,有几个需要求解大型线性规划的例子:
- 提升算法(Boosting) :这是一种组合分类器以提高准确性的方法,最著名的实例是 AdaBoost。在某些假设下,它能在无限维特征空间中找到一个具有大间隔的分离超平面,这相当于求解一个半无限线性规划。
- 结构化输出预测学习 :可以理解为具有大量类别的多类分类问题。每个类和示例都会产生一个约束,从而导致一个巨大的优化问题。这种问题出现在自然语言处理、语音识别以及基因结构预测等领域。
-
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



