最大间隔感知机:算法原理与实验验证
1. 引言
训练支持向量机通常需要解决二次优化问题,对于大规模数据集,这一过程复杂且实现困难。目前,简化二次优化任务的解决方案主要有两个方向:一是将软间隔问题拆分为一系列较小的子任务,如SMO算法;二是将Adatron算法扩展到核机器场景,即核Adatron算法。
本文提出的方法基于解决原始(主)问题,通过近似两个凸多面体之间的最近点来生成解决方案。与其他方法相比,该方法在单样本更新和收敛速度证明等方面具有独特优势。
2. 基本近似步骤
2.1 数据线性可分性与最大间隔
给定训练序列 $(x_i, y_i) \in R^N \times {-1, 1}$,若存在线性泛函 $\pi(x) = w \cdot x + b$ 使得 $y_i\pi(x_i) > 0$,则数据线性可分。线性泛函的间隔 $\rho(\pi)$ 定义为:
[
\rho(\pi) := \frac{\min_{i=1,\cdots,m} y_i\pi(x_i)}{|w|} = \frac{\min_{i=1,\cdots,m} y_i(w \cdot x_i + b)}{|w|}
]
具有最大间隔 $\rho$ 的泛函 $\pi^ $ 称为最优泛函,其对应的超平面 $\pi^{ -1}(0) \subset R^N$ 称为最优超平面。
为了更好地理解最优超平面,引入支持中心的概念。对于向量 $w^{(+1)}, w^{(-1)} \in R^N$,定义 $\pi_{w^{(+1)}, w^{(-1)}}(x) = w \cdot x + b$
超级会员免费看
订阅专栏 解锁全文
1363

被折叠的 条评论
为什么被折叠?



