一、支持向量机线性模型问题
1、线性可分的定义。
对于数据集(,
),(
,
)......(
,
),其中
为多维的特征,
为其标签,其值取
,存在(w, b)使得对于任意i=1~n,有
①:若=1,则
②:若=-1,则
几何意义即:存在一个超平面将y的不同类别分开
2、如下图所示,SVM分类即找到一个超平面位于margin的中间,且需要margin最大。图中绿色线条即为超平面,与黑色虚线相交的向量为支持向量,所以SVM所得的超平面仅仅与支持向量有关。
3、数学处理
SVM所求的超平面仅仅与支持向量有关,且超平面位于中间位置,因此:所有支持向量到超平面的距离是相同的。
对于任意一个支持向量,其到超平面的距离为:
因为超平面与
是同一个平面
使用正实数a缩放(w,b)得到(aw,ab),使得
上述距离公式可变为
因此求最大化margin的问题可以转换为求最小化,等价于最小化
其限制条件为:,i=1~n,即在超平面两侧为不同的类别
上述问题归属于凸优化问题,最终要么有一个最优解,要么无解,这里不做深入探讨。
二、支持向量机非线性模型问题
1、对非线性模型,需在线性问题的基础上进行改造:
问题改为:最小化,
限制条件为:①
②
其中为松弛变量,
为正则项,C为超参数,需要提前设定,一般根据经验或结合实际情况取值。
2、将低维空间线性不可分的向量映射到高维空间中,使其线性可分。
若将低维的向量映射到无限维的高维空间中,则一定线性可分。
将N维的映射为更高维M维的
,使其线性可分。
假定是无限维,
问题可转换为:最小化,
限制条件为:①
②
其中,为无限维,
也为无限维。
不需要知道的显示表达式,只需要知道一个核函数: