2022优化理论与应用---SVM

本文详细介绍了支持向量机(SVM)的核心概念,包括间隔最大化,如何通过拉格朗日乘子法解决对偶问题,以及核技巧的应用。SVM寻找间隔最大化的超平面,对训练集实现正确分类,并且对未知样本有良好预测能力。通过对偶问题的转换,SVM可以高效求解,并且利用核函数处理非线性问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、简单介绍 

  • 支持向量机(support vector machines, SVM)是一种二分类模型。
  • 它的基本模型是定义在特征空间上的间隔最大的分类,间隔最大是它有别于感知机(PLA)。
  • 支持向量机的学习策略就是使间隔最大化,可形式化为一个求解凸二次规划的问题。支持向量机的学习算法是求解凸二次规划的最优化算法。

2、支持向量机的三大法宝--> 间隔 、对偶、核技巧

2.1 .1 间隔(margin)

        训练集: D=\left\{\left(x_1, y_1\right),\left(x_2, y_2\right), \ldots,\left(\boldsymbol{x}_m, y_m\right)\right\}, y_i \in\{-1,+1\}

        

        分类学习最基本的思想就是基于训练集D在样本空间中找到一个划分超平面,将不同类别的样本分开,但是就如上图所示,能将训练样本分开的划分超平面有很多。支持向量机的核心问题就是怎么找到这样一个线性超平面。

        在样本空间中划分超平面可以通过如下线性方程来描述:

w^Tx+b=0

        其中\boldsymbol{w}=\left(w_1 ; w_2 ; \ldots ; w_d\right)为法向量,决定了超平面的方向。b为位移项,决定了超平面与原点的距离。

        超平面可以由w和b唯一确定,我们将其记为(w,b)。样本空间中任意一点x到超平面的的距离可以写为:

r=\frac{\left|\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b\right|}{\|\boldsymbol{w}\|}

        假设超平面(w,b)能将训练样本正确分类,在超平面之上的样本

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值