SVM的分类超平面的数学推导

本文深入解析支持向量机(SVM)的工作原理,详细推导SVM的数学模型,包括超平面定义、间隔最大化、拉格朗日乘子法应用及KKT条件解释。通过数学公式展示SVM如何找到最佳分类边界。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

给出数学推导,每个向量的意义不再赘述

转换原问题

确定每个支持向量下的超平面:min y(w^T+b)/||w||
间隔最大的为所求最优的超平面 max min y(w^T+b)/||w|| ,
即求:
a r g   m a x w T , b { m i n x   y i × ( w T x i + b ) 1 ∣ ∣ w ∣ ∣ } , y i 即 l a b e l i arg \space \underset{w^T,b} {max} \{ \underset{x}{min} \space y_i \times (w^T x_i+b) \frac{1}{||w||} \},y_i 即 label_i arg wT,bmax{xmin yi×(wTxi+b)w1},yilabeli
y i y_i yi=+1或-1,不影响结果。
为了便于计算,我们可以认为在支持向量上的这一部分为 1,支持向量上的点也为所有点里的最近的点
y i × ( w T x i + b ) y_i \times (w^T x_i+b) yi×(wTxi+b)
那么其他点满足不等式:
y i ( w T + b ) ≥ 1 y_i(w^T+b) \geq 1 yi(wT+b)1
这个式子转换为:
m i n x   y i × ( w T x i + b ) 1 ∣ ∣ w ∣ ∣ = > 1 ∣ ∣ w ∣ ∣ \underset{x}{min} \space y_i \times (w^T x_i+b) \frac{1}{||w||} => \frac {1}{||w||} \\ xmin yi×(wTxi+b)w1=>w1

{ m a x w T , x 1 ∣ ∣ w ∣ ∣ s . t .   y i ( w T + b ) ≥ 1 \begin{cases} \underset{w^T,x}{max} \frac {1}{||w||} \\ s.t. \space y_i(w^T+b) \geq 1 \end{cases} wT,xmaxw1s.t. yi(wT+b)1
对于 m a x 1 ∣ ∣ w ∣ ∣ max\frac {1}{||w||} maxw1,它取得 max 和 1 2 ∣ ∣ w ∣ ∣ 2 \frac 1 2 {||w||}^2 21w2 取得 min 的情形是一致的(1/2和平方便于后续计算)
问题转换为
{ m a x x   1 2 ∣ ∣ w ∣ ∣ 2 s . t .   y i ( w T + b ) ≥ 1 \begin{cases} \underset{x}{max} \space \frac 1 2{||w||}^2 \\ s.t. \space y_i(w^T+b) \geq 1 \end{cases} {xmax 21w2s.t. yi(wT+b)1

拉格朗日乘子法

关于拉格朗日乘子法的原理和证明:
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
其中严谨的拉格朗日对偶的证明没有明白,但是直观上是能理解的。
强对偶和KKT条件也非常严格,这里没有写出来。

有不等式约束的优化问题,可以写为:
min f(x), 
	s.t. g_i(x) <= 0; i =1, ..., n
	h_j(x) = 0; j =1, ..., m

对于含有不等式约束的优化问题,如何求取最优值呢?常用的方法是KKT条件.
同样地,把所有的不等式约束、等式约束和目标函数全部写为一个式子L(a, b, x)= f(x) + a*g(x)+b*h(x),
KKT条件是说最优值必须满足以下条件:

1. L(a, b, x)对x求导为零;
2. h(x) =0;
3. a*g(x) = 0;

求取这三个等式之后就能得到候选最优值。其中第三个式子非常有趣,因为g(x)<=0,
如果要满足这个等式,必须a=0或者g(x)=0. 这是SVM的很多重要性质的来源,如支持向量的概念。

我们按照拉格朗日乘子法:
构造
L ( w T , x , b ) = 1 2 ∣ ∣ w ∣ ∣ 2 + ∑ i m α i [ 1 − y i ( w T x i + b ) ] L(w^T,x,b)=\frac 1 2{||w||}^2+\sum_i^{m}\alpha_i[1-y_i(w^Tx_i+b)] L(wT,x,b)=21w2+imαi[1yi(wTxi+b)]
令其对各分量求偏导等于0,即分别对 w T w^T wT, b b b求导
∣ ∣ w ∣ ∣ 2 即 w T ∗ w ||w||^2即 w^T*w w2wTw
可以得到
w T − ∑ i m α i y i x i = 0 w^T -\sum_i^m\alpha_iy_ix_i=0 wTimαiyixi=0
∑ i m α i y i = 0 \sum_i^m\alpha_iy_i=0 imαiyi=0

把上述结论代入 L,

L ( ω , b , α ) = 1 2 ∥ ω ∥ 2 + ∑ i = 1 m α i [ 1 − y i ( ω T x i + b ) ] = 1 2 ∥ ∑ i = 1 m α i y i x i ∥ 2 + ∑ i = 1 m α i − ω T ∑ i = 1 m α i y i x i = 1 2 ω T ∑ i = 1 m α i y i x i + ∑ i = 1 m α i − ω T ∑ i = 1 m α i y i x i = ∑ i = 1 m α i − 1 2 ( ∑ i = 1 m α i y i x i T ) ( ∑ i = 1 m α i y i x i ) = ∑ i = 1 m α i − 1 2 ∑ i = 1 m ∑ j = 1 m α i α j y i y j x i T x j \begin{aligned} L(\omega,b,\alpha)&amp;=\frac{1}{2}\|\omega\|^2 + \sum_{i=1}^m\alpha_i\Big[1-y_i(\omega^Tx_i+b)\Big] \\ &amp;= \frac{1}{2}\left\| \sum_{i=1}^{m}\alpha_iy_ix_i \right\|^2 + \sum_{i=1}^{m}\alpha_i - \omega^T\sum_{i=1}^{m}\alpha_iy_ix_i \\ &amp;=\frac{1}{2}\omega^T\sum_{i=1}^{m}\alpha_iy_ix_i+\sum_{i=1}^{m}\alpha_i - \omega^T\sum_{i=1}^{m}\alpha_iy_ix_i \\ &amp;=\sum_{i=1}^{m}\alpha_i - \frac 1 2 \left(\sum_{i=1}^{m}\alpha_iy_ix_i^T\right)\left(\sum_{i=1}^{m}\alpha_iy_ix_i\right) \\ &amp;=\sum_{i=1}^{m}\alpha_i - \frac 12\sum_{i=1}^{m}\sum_{j=1}^{m}\alpha_i\alpha_jy_iy_jx_i^Tx_j \end{aligned} L(ω,b,α)=21ω2+i=1mαi[1yi(ωTxi+b)]=21i=1mαiyixi2+i=1mαiωTi=1mαiyixi=21ωTi=1mαiyixi+i=1mαiωTi=1mαiyixi=i=1mαi21(i=1mαiyixiT)(i=1mαiyixi)=i=1mαi21i=1mj=1mαiαjyiyjxiTxj

资料:
一篇介绍svm还不错的博客:
【机器学习】支持向量机SVM原理及推导
一个对拉格朗日乘子法很好的归纳的博客,基本够用了
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值