SVM支撑向量机详解(一)

本文深入介绍了SVM(Support Vector Machine),从最优间隔分类算法开始,通过KKT条件和拉格朗日对偶性,最终引出SVM的概念。文章详述了SVM的目标函数、几何间隔、对偶问题和KKT条件,并讨论了如何通过支持向量确定超平面。此外,还提及了基于OpenCV的线性SVM代码实现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


一、SVM简介

SVM(Support Vector Machine)被认为是现存的最好的监督学习算法之一,甚至有人认为它就是最好的。Ng为了讲清楚这个算法,先是从最优间隔分类器开始,再到KKT条件原问题和对偶问题,最后引出SVM的概念和求解方法。我按我的理解来,可能细节有点不一样,但最后是殊途同归。

二、最优间隔分类算法

假设有两个数据集{(xi,yi):i=1,...m},其中xi是p维向量,p为特征维数,而yi∈{-1,1},i=1,...,m是样本数量。并且假设该数据集是线性可分的。如下图:


上面是正样本,下面是负样本,中间是一个分割超平面。上图所示即为当p=2时,xi为二维向量,代表的是平面上的点,如果p等于一个很大的数,用图形是无法形象表达的。

因为数据是线性可分的,即



计算任一点xi到超平面的距离,根据点到平面距离公式:

正样本点:



负样本点:

(因为距离不可能为负数,所以在前面添加一个负号

令:

M被称为几何间隔。

试想一下,一个好的分类超平面,肯定是两边的点到其距离都尽可能的小。所以最优间隔分类器 的目标函数为:

这个意义也是明显的,最优的分类器肯定使所有样本到超平面的最小距离最大化。上述最优化问题等价为:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值