机器学习笔记——支持向量机(IV)软间隔

本文深入探讨了在支持向量机(SVM)中如何通过软间隔处理非线性可分问题,介绍了软间隔的概念及其数学表达,包括目标函数、替代损失函数及松弛变量等关键要素。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前提

在实际的应用中,训练样本在样本空间或者特征空间中可能很难找到一个合适的核函数使得训练样本在特征空间中线性可分。即使找到了一个合适的核函数使得样本在样本空间中线性可分,我们也无法判断这个结果是不是由于过拟合造成的。

软间隔

硬间隔

所谓硬间隔就是非黑即白,即所有样本都必须划分正确。

软间隔概念

相比于硬间隔,软间隔允许存在灰色地带,也就是允许某些样本不满足约束条件:

yi(wTxi+b)1.

不过在最大间隔化的同时要求,不满足约束的样本数应该尽可能地少。
于是优化目标函数:
minw,b12||w||2+Ci=1mfunction(yi(wTxi+b)1)

其中C>0是一个常数,
C+则目标函数迫使所有样本都满足约束条件。
C=constant则目标函数允许一部分地样本不满足约束条件。
function被称为替代损失函数:

常用的替代损失函数

0/1损失函数:

0/1(z)={10,if z<0;,otherwise.

hinge损失:

hinge(z)=max(0,1z)

指数损失(exponetial loss):

exp(z)=exp(z)

对率损失(logistic loss):

log(z)=log(1+exp(z))

松弛变量和软间隔支持向量机

引入松弛变量εi0,于是优化目标函数可以写成:

minw,b,εi12||w||2+Ci=1mεis.t. yi(wTxi+b)1εiεi0

上式就是软间隔支持向量机
上式中每一个样本都有一个对于的松弛变量,以表征该样本不满足约束的程度。

软间隔支持向量机

使用拉格朗日乘子法:

L(w,b,α,ε,μ)=minw,b,εi12||w||2+Ci=1mεi+i=1mαi(1εiyi(wTxi+b))i=1mμiεi

其中:αi0,μi0式拉格朗日乘子。
L(w,b,α,ε,μ)w,b,εi
偏导为零。
w=i=1mαiyixi0=i=1mαiyiC=αi+μi

同时得到对偶问题:
maxαs.t.i=1mαi12i=1mj=1mαiyiαjyjxTixji=1mαiyi=0,0αiC,i=1,2,,m.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值