详解SVM系列(四):线性支持向量机与软间隔最大化

本文详细介绍了线性支持向量机在处理线性不可分问题时的软间隔最大化方法。通过引入松弛变量,允许一定数量的误分类点,以优化模型的泛化能力。同时,讲解了惩罚参数C的作用以及如何通过拉格朗日乘子法求解线性不可分支持向量机的对偶问题。软间隔最大化确保了模型在处理异常点时的鲁棒性,并保持了模型的稀疏性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

线性支持向量机

线性可分问题的支持向量机学习方法,对线性不可分训练数据是不适用的,因为这时上述方法的不等式约束并不能都成立。
举2个例子:
在这里插入图片描述
如果没有混入异常点,导致不能线性可分,则数据可以按上面的实线来做超平面分离的。

在这里插入图片描述
这种情况虽然不是不可分的,但是由于其中的一个蓝色点不满足线性可分支持向量机中的不等式约束,导致模型的泛化效果很差。
正常情况下(没有那个蓝色异常点)分离超平面应该是红色的那条线,由于异常点的存在,实际得到的分离超平面是黑色的粗虚线。(间隔不同啊,所以泛化性能也不一样)

软间隔最大化

怎么解决呢?
对硬间隔最大化做出一些让步:放宽SVM的限制,可以允许存在一些误分类的点。
线性不可分意味着某些样本点(xi,yi)(x_i,y_i)(xi,yi)不能满足函数间隔大于等于1的约束条件,为了解决这个问题,可以对每个样本点(xi,yi)(x_i,y_i)(xi,yi)引进一个松弛变量ζi≥0ζ_i≥0ζi0,使得函数间隔加上松弛变量大于等于1.这样约束条件变为
yi(wxi+b)≥1−ζiy_i(wx_i+b)≥1-ζ_iyi(wxi+b)1ζi
松弛变量的引入就是i为了对付那些离群点的,其他点(姑且称作正常点)的松弛变量都是0
同时,对每一个松弛变量ζiζ_iζi,支付一个代价ζiζ_iζi。目标函数由原来的∣∣w∣∣22\frac{||w||^2}{2}2w2变成
∣∣w∣∣22+C∑i=1Nζi\frac{||w||^2}{2}+C\displaystyle\sum_{i=1}^{N}ζ_i2w2+Ci=1Nζi -------------------------(式1)
这里,C称为惩罚参数,一般由应用问题决定。
C值大的时候对误分类的惩罚大,这时候间隔会变小
C值小时对误分类的惩罚变小,间隔相应的变大。

式1的意义在于使间隔尽量大,同时使误分类的个数尽量少。
线性不可分的线性支持向量机的学习问题变成下面的凸二次规划问题:
minw,b,ζ∣∣w∣∣22+C∑i=1Nζi{min}_{w,b,ζ}\frac{||w||^2}{2}+C\displaystyle\sum_{i=1}^{N}ζ_iminw,b,ζ2w2+Ci=1Nζi -----------------------------(式2)
s.t:yi(wxi+b)≥1−ζi其中i=1,2,3……Ns.t:y_i(wx_i+b)≥1-ζ_i其中i=1,2,3……Ns.t:yi(wxi+b)1ζi​</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值