机器学习算法(一):支持向量机SVM

线性可分:      

        一个训练集线性可分是指:对于\{(x_i,y_i)\}_{i=1\sim N}\exists(\omega,b),使\forall i=1\sim N,若y_i=+1,则\omega^Tx_i+b\ge 0;若y_i=-1,则\omega^Tx_i+b<0

超平面:        

        如图1所示,给定训练样本集D={(x_1,y_1),(x_2,y_2),...,(x_m,y_m)},其中x_i\in R^d, y_i\in \{-1,+1\}分类方法最基本的想法就是基于训练集D在样本空间找到一个划分超平面,将不同类别的样本分开。

图1 超平面

        在样本空间中,划分超平面可通过如下线性方程来描述:

\omega^Tx+b=0

        其中,\omega=(\omega_1;\omega_2;...;\omega_d)为法向量,决定了超平面的方向;b为位移项,决定了超平面与原点之间的距离。样本空间任意点x到超平面(\omega, b)的距离可写为:

d=\frac{|\omega^Tx+b|}{||\omega||}

支持向量:        

        若超平面(\omega,b)能将训练样本正确分类,则总存在缩放变换a\omega\rightarrow \omegaab\rightarrow b使下式成立:

\omega^Tx+b\ge+1,y_i=+1

\omega^Tx_i+b\le-1,y_i=-1

        如图2所示,距离超平面最近的这几个训练样本使上式成立,它们被称为“支持向量”(support vector),两个异类支持向量到超平面的距离之和为

d=\frac{2}{||\omega||}

图2 支持向量与间隔

支持向量机的优化:

        最大化d=\frac{2}{||\omega||},即最小化:\frac{1}{2}||\omega||^2,限制条件:y_i(\omega^Tx_i+b)\ge 1(i=1\sim N)

SVM处理非线性问题:

        最小化\frac{1}{2}||\omega||^2+C\sum_{i=1}^{N}{\xi_i}\xi_i为正则项,限制条件为y_i(\omega^Tx_i+b)\ge 1-\xi_i, \xi_i\ge0

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值