最大间隔感知机:算法原理、实验结果与性能分析
1. 引言
训练支持向量机(SVM)通常需要解决一个二次优化问题。在处理大规模数据集时,这一过程可能需要复杂且难以实现的程序。近年来,人们致力于开发简化的解决方案,主要有两种方向:一是将软间隔问题拆分为一系列较小的子任务,如SMO算法;二是对Adatron算法进行扩展,得到适用于核机器的版本,该算法适用于在线和批量实现。
本文提出的方法基于解决原始(主)问题,通过近似两个凸多面体之间的最近点来生成解决方案。与其他方法相比,该算法专注于单点更新,以最小化更新总数,并提供了收敛率和计算复杂度的证明。
2. 基本近似步骤
2.1 线性可分性与最优超平面
给定训练序列((x_i; y_i) \in \mathbb{R}^N \times {-1, 1}),(i = 1, \cdots, m),若存在线性泛函(\pi(x) = w \cdot x + b),使得(y_i \pi(x_i) > 0),则数据是线性可分的。线性泛函(\pi)的间隔定义为(\rho(\pi) := \min_{i=1,\cdots,m} \frac{y_i \pi(x_i)}{|w|})。具有最大间隔(\rho^ := \max_{(w;b) \in (\mathbb{R}^N \setminus {0}) \times \mathbb{R}} \rho(\pi_{w;b}))的泛函(\pi^ )称为最优泛函,其对应的超平面(\pi^{*-1}(0))称为最优超平面。
2.2 凸包的最小距离
为了近似最优泛函,引入了支持中心的概念。对于向量(w^{(
超级会员免费看
订阅专栏 解锁全文
682

被折叠的 条评论
为什么被折叠?



