最大间隔分类器:支持向量机的原理与优化
1. 最大间隔分类器概述
最大间隔分类器是支持向量机(SVM)的核心概念。在二维空间中,我们可以通过一个例子来理解,假设有两组合成数据,使用具有高斯核函数的支持向量机可以得到常数 $y(x)$ 的轮廓。同时,还能确定决策边界、间隔边界以及支持向量。
尽管数据集在二维数据空间 $x$ 中可能不是线性可分的,但在由非线性核函数隐式定义的非线性特征空间中却是线性可分的。这意味着在原始数据空间中,训练数据点可以被完美分离。
这个例子还为支持向量机的稀疏性起源提供了几何见解。最大间隔超平面由支持向量的位置定义,其他数据点可以在间隔区域外自由移动,而不会改变决策边界,因此解决方案将独立于这些数据点。
2. 重叠类分布问题
在实际应用中,类条件分布可能会重叠。如果假设训练数据点在特征空间 $\varphi(x)$ 中是线性可分的,得到的支持向量机可以在原始输入空间 $x$ 中精确分离训练数据,但其对应的决策边界将是非线性的。然而,精确分离训练数据可能会导致泛化能力较差。
为了解决这个问题,需要对支持向量机进行修改,允许一些训练点被错误分类。在可分离类的情况下,我们隐式使用了一个误差函数,当数据点被错误分类时会产生无穷大的误差,正确分类时误差为零,然后优化模型参数以最大化间隔。现在,我们修改这种方法,允许数据点位于间隔边界的“错误一侧”,但会根据与该边界的距离增加惩罚。
为了实现这一点,引入了松弛变量 $\xi_n \geq 0$,$n = 1, \ldots, N$,每个训练数据点对应一个松弛变量。具体定义如下:
- 对于位于正确间隔边界上或内部的数据点,$\x
支持向量机原理与优化
超级会员免费看
订阅专栏 解锁全文

882

被折叠的 条评论
为什么被折叠?



