[DataAnalysis]支持向量机的软间隔与正则化

本文探讨了支持向量机(SVM)从理想化的硬间隔转向更为实用的软间隔的概念转变。在现实世界的数据集中,找到能够完全线性分离各类别的核函数通常是不可能的,甚至如果找到了这样的核函数,也可能是因为过拟合。为了解决这个问题,SVM引入了软间隔的概念,允许某些样本点违反分类边界,通过引入松弛变量和惩罚系数,以最小化错误分类的样本数量同时保持最大间隔。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

由硬间隔转为软间隔

理想化的支持向量机存在一个超平面将不同类的样本完全划分开。然而在现实任务中往往很难确定合适的核函数使得训练样本在特征空间中完全线性可分。退一步说,即便恰好找到了某个核函数使训练集在特征空间中线性可分,也很难断定这个貌似线性可分的结果不是由于过拟合造成的。

因此缓解该问题的办法是允许支持向量机在某些样本上出错,为此要引入“软间隔”的概念。如下图所示:

即允许某些样本不满足约束y_i(w^Tx_i+b)\geq 1

优化目标函数

在最大化间隔的同时,我们需要不满足约束的样本点尽可能少,于是优化目标可以写成:

\min_{w,b}\quad \frac{1}{2}||w||^2+C\sum_{i=1}^{m}l _{0/1}(y_i(w^Tx_i+b)-1)

其中C是一个常数,l_{0/1}是一个损失函数

l_{0/1}(z)=\left\{\begin{matrix} 1, & ifz<0\\ 0,& otherwise \end{matrix}\right.

但是由于l_{0/1}非凸,非连续,数学性质不太好,使得参数不容易直接求解。于是人们通常用其他一些函数来代替l_{0/1},称为“替代损失”。常见的替代损失函数有:

损失函数公式
hinge损失函数l_{hinge}(z)=\max(0,1-z)
指数损失函数l_{exp}(z)=exp(-z)
对率损失函数l_{log}(z)=log(1+exp(-z))

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值