支持向量机的基本原理(一)

本文介绍了支持向量机(SVM)的基本原理,包括函数间隔、几何间隔和最大间隔分类器的概念。SVM旨在寻找最大间隔的超平面以实现分类,通过几何间隔确保分类的确信度。当面临非线性可分情况时,引入了松弛因子ξi和惩罚项,以容忍部分样本点偏离超平面,形成软间隔SVM。通过对偶问题求解,SVM可以利用拉格朗日乘子和核函数进行优化,有效地处理线性和非线性数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

相关内容
SMO算法求解支持向量机(二)
用SMO算法求解支持向量机(SVM)pythony源代码(三)
支持向量机是万能的分类器算法,简称SVM。一般来说他是二分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。

一 理解SVM基本原理

1,SVM的基本概念

我们的目的是根据几何间隔计算“最大间隔”。

1.1 函数间隔

对任何一个数据点(x,y),|wT*x+b|能够表示点x到距离超平面wT*x+b=0的远近,而wT*x+b的符号与类标记y的符号是否一致可判断是否分类正确。所以,可用y(wT*x+b)的正负性判定或表示分类的正确性(为正才正确),引出了函数间隔(functional margin)的概念。定义函数间隔为:
这里写图片描述

而超平面所有样本点(xi,yi)的函数间隔最小值便为超平面关于训练数据集的函数间隔: mini (i=1,…n)
实际上,函数间隔就是几何上点到面的距离公式。
1.2 几何间隔

假定对于一个点 x ,令其垂直投影到超平面上的对应点为 x0 ,w 是垂直于超平面的一个向量,为样本x到分类间隔的距离,如下图所示:
这里写图片描述
数据点到超平面的几何间隔定义为:

### 支持向量机 (SVM) 基本原理 #### 定义和支持向量的概念 支持向量机(Support Vector Machine, SVM)是有监督的学习模型,主要用于解决分类和回归问题。其核心思想是在特征空间中找到个最优超平面来区分不同类别的数据点[^2]。 对于线性可分的数据集来说,存在多个可以分离两类样本的超平面;但是SVM的目标是寻找使得间隔最大的那个超平面。这个最大化的间隔被称为“边缘”,而位于边界的那些训练实例则称为支持向量[^1]。 #### 数学表达形式 假设给定组带标签的训练样例 \((\mathbf{x}_i,y_i)\),其中 \(y_i\) 表示类别标签 (\(+1\) 或者 \(-1\)) ,那么SVM试图求解如下优化问题: 最小化: \[ \frac{1}{2}||w||^2 \] 满足条件: \[ y_i(\mathbf{w}\cdot\mathbf{x}_i+b)-1\geq0,\quad i=1,...,n \] 这里,\(w\) 和 \(b\) 分别代表权重向量和平移项,它们定义了决策边界的位置与方向。上述目标函数旨在最大化两个类别之间的距离,即所谓的几何间隔[^3]。 当遇到非线性的分布情况时,可以通过引入核技巧(kernel trick)将原始输入映射到更高维的空间内实现更好的划分效果。常用的几种核函数包括多项式核、RBF径向基函数等。 ```python from sklearn import svm X = [[0, 0], [1, 1]] Y = [0, 1] clf = svm.SVC() clf.fit(X, Y) ``` 这段Python代码展示了如何利用Scikit-Learn库中的`svm.SVC()`创建并训练个简单的二元分类器。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值