内容是自己做的 ppt 的截图,有需要的小伙伴可以去 下载,也可以给我留言,看到会回复的。
文章目录
前言
1998 年,John Platt 提出了序列最小最优化算法 (SMO) 算法用于训练 SVM 分类器。SMO 算法是一种启发式算法,其基本思路是:一次迭代只优化两个变量而固定剩余的变量。

SMO 要解如下凸二次规划的对偶问题

其实就是训练 SVM 分类器

算法过程

精度 ϵ \epsilon ϵ指 KKT 条件的容错率 toler。
部分 KKT 条件:

比如第二个条件,不要求严格等于 1 ,在容错率范围内都是可以接收的。原文内容如下:

SMO 算法主要有两个部分组成:
- 选取两个 α \alpha α进行优化;
- 求解两个 α \alpha α的解析解。
先说第二个内容
求解 α \alpha α的解析解
子问题
假设选择的变量是 α 1 , α 2 \alpha_1,\alpha_2 α1,α2,其余变量 α i ( i = 3 , ⋯ , N ) \alpha_i (i=3,\cdots,N) αi(i=3,⋯,N)是固定的,则 SMO 的最优化问题的子问题如下,其中 K ( x i , x j ) = K i j K(x_{i},x{j})=K_{ij} K(xi,xj)=Kij

首先分析约束条件,重新定义 α 2 \alpha_2 α

本文详细介绍SMO算法在支持向量机中的应用,包括算法的基本原理、求解过程及其实现方法。介绍了如何选取两个变量进行优化,求解解析解的过程,并提供算法实现的参考资料。
最低0.47元/天 解锁文章
10万+

被折叠的 条评论
为什么被折叠?



