线性支持向量机

本文深入探讨了线性支持向量机(SVM),包括线性可分SVM的最大间隔法和学习的对偶算法。通过最大化间隔,找到最优的超平面来实现样本的分类。介绍了如何构建拉格朗日函数,并通过求解对偶问题确定分离超平面的权重和偏置。同时提到了线性SVM的松弛变量和惩罚系数C,以及R语言中实现SVM的包。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

点击下方图片查看HappyChart专业绘图软件

HappyChart专业绘图软件

支持向量机可以分为:线性可分支持向量机,线性支持向量机和非线性支持向量机,本次内容只讲述线性可分支持向量机和线性支持向量机。支持持向量机是一种强大的分类学习算法,即可以解决二分类也可以解决多分类问题,本次只讲述二分类的问题。
#线性可分支持向量机
线性可分支持向量机是要学习一个超平面,而这个超平面能把正例和负例完全分开,但是这样的超平面可能有无数多个,线性可分支持向量机利用间隔最大化求分离超平面,这时,解是唯一的。
通过间隔最大化或等价的求解相应的凸二次规划问题学习得到的分离超平面为:
w ∗ ⋅ x + b ∗ = 0 w^*\cdot x+b^*=0 wx+b=0
以及相应的分类决策函数:
f ( x ) = s i g n ( w ∗ ⋅ x + b ∗ ) f(x)=sign(w^*\cdot x+b^*) f(x)=sign(wx+b)
称为线性可分支持向量机。

函数间隔和几何间隔

**函数间隔:**对于给定的训练集 T T T和超平面 ( w , b ) (w,b) (w,b),定义超平面 ( w , b ) (w,b) (w,b)关于样本点 ( x i , y i ) (x_i,y_i) (xi,yi)的函数间隔为
γ i ^ = y i ( w ⋅ x i + b ) \hat{\gamma_i}=y_i(w\cdot x_i+b) γi^=yi(wxi+b)
定义超平面 ( w , b ) (w,b) (w,b)关于训练集 T T T的函数间隔为超平面 ( w , b ) (w,b) (w,b)关于 T T T中所有样本点 ( x i , y i ) (x_i,y_i) (xi,yi)的函数间隔只最小值,即
γ ^ = m i n i = 1 , . . . , N γ i ^ \hat{\gamma}=min_{i=1,...,N}\hat{\gamma_i} γ^=mini=1,...,Nγi^
对分离超平面的法向量 w w w进行规范化,就得到集合间隔
**几何间隔:**对于给定的训练集 T T T和超平面 ( w , b ) (w,b) (w,b),定义超平面 ( w , b ) (w,b) (w,b)关于样本点 ( x i , y i ) (x_i,y_i) (xi,yi)的几何间隔为
γ i = y i ( w ∣ ∣ w ∣ ∣ ⋅ x i + b ∣ ∣ w ∣ ∣ ) \gamma_i=y_i(\frac{w}{||w||}\cdot x_i+\frac{b}{||w||}) γi=yi(∣∣w∣∣wxi+∣∣w∣∣b)
定义超平面 ( w , b ) (w,b) (w,b)关于训练集 T T T的函数间隔为超平面 ( w , b ) (w,b) (w,b)关于 T T T中所有样本点 ( x i , y i ) (x_i,y_i) (xi,yi)的几何间隔只最小值,即
γ = m i n i = 1 , . . . , N γ i \gamma=min_{i=1,...,N}\gamma_i γ=mini=1,...,Nγi
从上述看出,几何间隔与函数间隔只差了一个乘积 1 ∣ ∣ w ∣ ∣ \frac{1}{||w||} ∣∣w∣∣1

要间隔最大化,只需要最大化间隔,可以表述为下面的约束最优化问题:
m a x w , b γ s . t . y i ( w ∣ ∣ w ∣ ∣ ⋅ x i + b ∣ ∣ w ∣ ∣ ) ≥ γ , i = 1 , 2 , … , N max_{w,b}\quad\gamma\\ s.t.\quad y_i(\frac{w}{||w||}\cdot x_i+\frac{b}{||w||})\ge \gamma, i=1,2,\ldots,N maxw,bγs.t.yi(∣∣w∣∣wxi+∣∣w∣∣b)γ,i=1,2,,N
考虑几何间隔与函数间隔的关系,则可将问题改成
m a x w , b γ ^ ∣ ∣ w ∣ ∣ s . t . y i ( w ⋅ x i + b ) ≥ γ ^ , i = 1 , 2 , … , N max_{w,b}\quad\frac{\hat{\gamma}}{||w||}\\ s.t.\quad y_i(w\cdot x_i+b)\ge \hat{\gamma}, i=1,2,\ldots,N maxw,b∣∣w∣∣γ^s.t.yi(wxi+b)γ^,i=1,2,,N
函数间隔 γ ^ \hat{\gamma} γ^取值不影响最优化问题的求解,所以取 γ ^ = 1 \hat{\gamma}=1 γ^=1,而注意到最大化 1 ∣ ∣ w ∣ ∣ \frac{1}{||w||} ∣∣w∣∣1和最小化 1 / 2 ∣ ∣ w ∣ ∣ 2 1/2||w||^2 1/2∣∣w2等价,故得到线性可分支持向量机学习的最优化问题
m i n w , b 1 2 ∣ ∣ w ∣ ∣ 2 s . t . y i ( w ⋅ x i + b ) − 1 ≥ 0 , i = 1 , … , N min_{w,b}\quad \frac{1}{2}||w||^2\\ s.t.\quad y_i(w\cdot x_i+b)-1\ge 0, i=1,\ldots,N minw,b21∣∣w2s.t.yi(wxi+b)10,i=1,,N

线性可分支持向量机算法(最大间隔法)

输入:线性可分训练集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯   , ( x N , y N ) } T=\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\} T={(x1,y1),(x2,y2),,(xN,yN)},其中, x i ∈ χ = R n , y i ∈ Y = { 1 , − 1 } , i = 1 , 2 , ⋯   , N x_i \in \chi=R^n,y_i\in Y=\{1,-1\},i=1,2,\cdots,N xiχ=Rn,yiY={1,1},i=1,2,,N
输出:最大间隔分离超平面和分类决策函数。
(1)构造并求解约束最优化问题:
m i n w , b 1 2 ∣ ∣ w ∣ ∣ 2 s . t . y i ( w ⋅ x i + b ) − 1 ≥ 0 , i = 1 , … , N min_{w,b}\quad \frac{1}{2}||w||^2\\ s.t.\quad y_i(w\cdot x_i+b)-1\ge 0, i=1,\ldots,N minw,b21∣∣w2s.t.yi(wxi+b)10,i=1,,N
求得最优解 w ∗ , b ∗ w^*,b^* w,b
(2)由此得到分离超平面:
w ∗ ⋅ x + b ∗ = 0 w^*\cdot x+b^*=0 wx+b=0
分类决策函数为
f ( x ) = s i g n ( w ∗ ⋅ x + b ∗ ) f(x)=sign(w^*\cdot x+b^*) f(x)=sign(wx+b)
现在的问题是怎样求解 w ∗ , b ∗ w^*,b^* w,b,只要把 w ∗ , b ∗ w^*,b^* w,b求解出,那么自然而然就得到了分离超平面和分类决策函数。在求解 w ∗ , b ∗ w^*,b^* w,b之前,先看看对偶问题
##拉格朗日对偶性
在约束最优化问题中,常常利用拉格朗日对偶性将原始问题转化为对偶问题,通过对偶问题而得到原始问题的解。

  1. 原始问题
    假设 f ( x ) , c i ( x ) , h j ( x ) f(x),c_i(x),h_j(x) f(x),ci(x),hj(x)是定义在 R n R^n Rn上的连续可微函数,考虑约束最优化问题:
    m i n x ∈ R n f ( x ) s . t . c i ( x ) ≤ 0 , i = 1 , 2 , . . . , k h j ( x ) = 0 , j = 1 , 2 , . . . , l min_{x\in R^n}\quad f(x)\\ s.t.\quad c_i(x)\le 0, i=1,2,...,k\\ h_j(x)=0,j=1,2,...,l minxRnf(x)s.t.ci(x)0,i=1,2,...,khj(x)=0,j=1,2,...,l
    此约束最优化问题就是原始问题。
    引进拉格朗日函数
    L ( x , α , β ) = f ( x ) + Σ i = 1 k α i c i ( x ) + Σ j = 1 l β j h j ( x ) L(x,\alpha,\beta)=f(x)+\Sigma_{i=1}^k\alpha_ic_i(x)+\Sigma_{j=1}^l\beta_jh_j(x) L(x,α,β)=f(x)+Σi=1kαici(x)+Σj=1lβjhj(x)
    α i , β j \alpha_i,\beta_j αi,βj为拉格朗日乘子,$\alpha_i\ge 0 $,考虑x的函数:
    θ p ( x ) = m a x α , β : α i ≥ 0 L ( x , α , β ) \theta_p(x)=max_{\alpha,\beta:\alpha_i\ge0}L(x,\alpha,\beta) θp(x)=maxα,β:αi0L(x,α,β)
    下标P表示原始问题。
    如果x满足KKT条件,则有上两式知 θ p ( x ) = f ( x ) \theta_p(x)=f(x) θp(x)=f(x)
    考虑 f ( x ) f(x) f(x)的极小化问题为
    m i n x θ p ( x ) = m i n x m a x α , β : α i ≥ 0 L ( x , α , β ) min_{x}\theta_p(x)=min_xmax_{\alpha,\beta:\alpha_i\ge0}L(x,\alpha,\beta) minxθp(x)=minxmaxα,β:αi0L(x,α,β)
    原始问题的最优值
    p ∗ = m i n x θ p ( x ) p^*=min_x\theta_p(x) p=minxθp(x)
  2. 对偶问题
    定义:
    θ D ( α , β ) = m i n x L ( x , α , β ) \theta_D(\alpha,\beta)=min_xL(x,\alpha,\beta) θD(α,β)=minxL(x,α,β)
    然后再极大化 θ D ( α , β ) \theta_D(\alpha,\beta) θD(α,β),即
    θ D ( α , β ) = m a x α , β : α i ≥ 0 m i n x L ( x , α , β ) \theta_D(\alpha,\beta)=max_{\alpha,\beta:\alpha_i\ge0 }min_xL(x,\alpha,\beta) θD(α,β)=maxα,β:αi0minxL(x,α,β)
    问题 m a x α , β : α i ≥ 0 m i n x L ( x , α , β ) max_{\alpha,\beta:\alpha_i\ge0 }min_xL(x,\alpha,\beta) maxα,β:αi0minxL(x,α,β)称为广义拉格朗日函数的极大极小问题。
    将广义拉格朗日函数的极大极小问题表示为约束最优化问题:
    m a x α , β θ D ( α , β ) = m a x α , β : α i ≥ 0 m i n x L ( x , α , β ) s . t . α i ≥ 0 , i = 1 , 2 , . . . , k max_{\alpha,\beta}\theta_D(\alpha,\beta)=max_{\alpha,\beta:\alpha_i\ge0 }min_xL(x,\alpha,\beta)\\ s.t. \alpha_i\ge0,i=1,2,...,k maxα,βθD(α,β)=maxα,β:αi0minxL(x,α,β)s.t.αi0,i=1,2,...,k
    称为原始问题的对偶问题,对偶问题的最优值
    d ∗ = m a x α , β : α i ≥ 0 θ D ( α , β ) d^*=max_{\alpha,\beta:\alpha_i\ge0}\theta_D(\alpha,\beta) d=maxα,β:αi0θD(α,β)
    即由原始的极小极大值问题转化为极大极小的对偶问题

**定理:**若原始问题和对偶问题都有最优值,则
d ∗ = p ∗ d^*=p^* d=p
**定理:**对于原始问题和对偶问题,假设 f ( x ) 和 c i ( x ) f(x)和c_i(x) f(x)ci(x)是凸函数, h j ( x ) h_j(x) hj(x)是仿射函数,并且不等式约束 c i ( x ) c_i(x) ci(x)是严格可行的,则 x ∗ 和 α ∗ , β ∗ x^*和\alpha^*,\beta^* xα,β分别是原始问题和对偶问题的解的充分必要条件是它们满足KKT条件:
∇ x L ( x ∗ , α ∗ , β ∗ ) = 0 ∇ α L ( x ∗ , α ∗ , β ∗ ) = 0 ∇ β L ( x ∗ , α ∗ , β ∗ ) = 0 α i ∗ c i ( x ∗ ) = 0 , i = 1 , 2 , . . . k c i ( x ∗ ) ≤ 0 , i = 1 , 2 , . . . , k α i ∗ ≥ 0 , i = 1 , 2 , . . . , k h j ( x ∗ ) , j = 1 , 2 , . . . , l \nabla_xL(x^*,\alpha^*,\beta^*)=0\\ \nabla_\alpha L(x^*,\alpha^*,\beta^*)=0\\ \nabla_\beta L(x^*,\alpha^*,\beta^*)=0\\ \alpha_i^*c_i(x^*)=0, i=1,2,...k\\ c_i(x^*)\le0,i=1,2,...,k\\ \alpha_i^*\ge0,i=1,2,...,k\\ h_j(x^*),j=1,2,...,l xL(x,α,β)=0αL(x,α,β)=0βL(x,α,β)=0αici(x)=0,i=1,2,...kci(x)0,i=1,2,...,kαi0,i=1,2,...,khj(x),j=1,2,...,l

学习的对偶算法

首先构建拉格朗日函数:
L ( w , b , α ) = 1 2 ∣ ∣ w ∣ ∣ 2 − Σ i = 1 N α i y i ( w ⋅ x i + b ) + Σ i = 1 N α i L(w,b,\alpha)=\frac{1}{2}||w||^2-\Sigma_{i=1}^N\alpha_iy_i(w\cdot x_i+b)+\Sigma_{i=1}^N\alpha_i L(w,b,α)=21∣∣w2Σi=1Nαiyi(wxi+b)+Σi=1Nαi
其中 α = ( α 1 , α 2 , . . . , α N ) T \alpha=(\alpha_1,\alpha_2,...,\alpha_N)^T α=(α1,α2,...,αN)T为拉格朗日乘子。
根据对偶性,原始问题的对偶问题为极大极小问题:
m a x α m i n w , b L ( w , b , α ) max_\alpha min_{w,b}L(w,b,\alpha) maxαminw,bL(w,b,α)
(1)求 m i n w , b L ( w , b , α ) min_{w,b}L(w,b,\alpha) minw,bL(w,b,α)
将拉格朗日函数对 w , b w,b w,b分别求导并等于0,得
w = Σ i = 1 N α i y i x i Σ i = 1 N α i y i = 0 w=\Sigma_{i=1}^N\alpha_iy_ix_i\\ \Sigma_{i=1}^N\alpha_iy_i=0 w=Σi=1NαiyixiΣi=1Nαiyi=0
代入到拉格朗日函数中得:
L ( w , b , α ) = − 1 2 Σ i = 1 N Σ i = 1 N α i α j y i y j ( x i ⋅ x j ) + Σ i = 1 N α i L(w,b,\alpha)=-\frac{1}{2}\Sigma_{i=1}^N\Sigma_{i=1}^N\alpha_i\alpha_jy_iy_j(x_i\cdot x_j)+\Sigma_{i=1}^N\alpha_i L(w,b,α)=21Σi=1NΣi=1Nαiαjyiyj(xixj)+Σi=1Nαi
(2)求 m i n w , b L ( w , b , α ) 对 α min_{w,b}L(w,b,\alpha)对\alpha minw,bL(w,b,α)α的极大
m a x α − 1 2 Σ i = 1 N Σ i = 1 N α i α j y i y j ( x i ⋅ x j ) + Σ i = 1 N α i s . t . Σ i = 1 N α i y i = 0 α i ≥ 0 , i = 1 , 2 , . . . , N max_{\alpha}-\frac{1}{2}\Sigma_{i=1}^N\Sigma_{i=1}^N\alpha_i\alpha_jy_iy_j(x_i\cdot x_j)+\Sigma_{i=1}^N\alpha_i\\ s.t.\quad \Sigma_{i=1}^N\alpha_iy_i=0\\ \alpha_i\ge0,i=1,2,...,N maxα21Σi=1NΣi=1Nαiαjyiyj(xixj)+Σi=1Nαis.t.Σi=1Nαiyi=0αi0,i=1,2,...,N
稍微转化一下
m i n α 1 2 Σ i = 1 N Σ i = 1 N α i α j y i y j ( x i ⋅ x j ) − Σ i = 1 N α i s . t . Σ i = 1 N α i y i = 0 α i ≥ 0 , i = 1 , 2 , . . . , N min_{\alpha}\frac{1}{2}\Sigma_{i=1}^N\Sigma_{i=1}^N\alpha_i\alpha_jy_iy_j(x_i\cdot x_j)-\Sigma_{i=1}^N\alpha_i\\ s.t.\quad \Sigma_{i=1}^N\alpha_iy_i=0\\ \alpha_i\ge0,i=1,2,...,N minα21Σi=1NΣi=1Nαiαjyiyj(xixj)Σi=1Nαis.t.Σi=1Nαiyi=0αi0,i=1,2,...,N

最终求得 w ∗ , b ∗ w^*,b^* w,b为:
w ∗ = Σ i = 1 N α i ∗ y i x i b ∗ = y j − Σ i = 1 N α i ∗ y i ( x i ⋅ x j ) w^*=\Sigma_{i=1}^N\alpha^*_iy_ix_i\\ b^*=y_j-\Sigma_{i=1}^N\alpha^*_iy_i(x_i\cdot x_j) w=Σi=1Nαiyixib=yjΣi=1Nαiyi(xixj)

线性可分支持向量机学习算法

输入:线性可分训练集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } T=\{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\} T={(x1,y1),(x2,y2),...,(xN,yN)},其中 x i ∈ χ = R n , y ∈ Y = { 1 , − 1 } , i = 1 , 2 , . . . , N x_i\in \chi =R^n,y\in Y=\{1,-1\},i=1,2,...,N xiχ=Rn,yY={1,1},i=1,2,...,N;
输出:分离超平面和分类决策函数。
(1)构造并求解约束最优化问题
m i n α 1 2 Σ i = 1 N Σ i = 1 N α i α j y i y j ( x i ⋅ x j ) − Σ i = 1 N α i s . t . Σ i = 1 N α i y i = 0 α i ≥ 0 , i = 1 , 2 , . . . , N min_{\alpha}\frac{1}{2}\Sigma_{i=1}^N\Sigma_{i=1}^N\alpha_i\alpha_jy_iy_j(x_i\cdot x_j)-\Sigma_{i=1}^N\alpha_i\\ s.t.\quad \Sigma_{i=1}^N\alpha_iy_i=0\\ \alpha_i\ge0,i=1,2,...,N minα21Σi=1NΣi=1Nαiαjyiyj(xixj)Σi=1Nαis.t.Σi=1Nαiyi=0αi0,i=1,2,...,N
求得最优解 α ∗ = ( α 1 ∗ , α 2 ∗ , . . . , α N ∗ ) T \alpha^*=(\alpha^*_1,\alpha^*_2,...,\alpha^*_N)^T α=(α1,α2,...,αN)T
(2)计算
w ∗ = Σ i = 1 N α i ∗ y i x i w^*=\Sigma_{i=1}^N\alpha^*_iy_ix_i w=Σi=1Nαiyixi
选择 α ∗ 的一个正分量 α ∗ > 0 \alpha^*的一个正分量\alpha^*\gt0 α的一个正分量α>0(因为是唯一解,所以只要选择其中一个 α ∗ > 0 \alpha^*\gt0 α>0就行),计算
b ∗ = y j − Σ i = 1 N α i ∗ y i ( x i ⋅ x j ) b^*=y_j-\Sigma_{i=1}^N\alpha^*_iy_i(x_i\cdot x_j) b=yjΣi=1Nαiyi(xixj)

线性支持向量机

而对于线性支持向量机,就是在线性可分支持向量机的基础上加了一个松弛变量 ξ \xi ξ,这时约束条件为 y i ( w ⋅ x i + b ) ≥ 1 − ξ i y_i(w\cdot x_i+b)\ge 1-\xi_i yi(wxi+b)1ξi,而目标函数变为 1 / 2 ∣ ∣ w ∣ ∣ 2 + C Σ i = 1 N ξ i 1/2||w||^2+C\Sigma_{i=1}^N\xi_i 1/2∣∣w2+CΣi=1Nξi
而最终得到的对偶问题为:
m a x α − 1 2 Σ i = 1 N Σ i = 1 N α i α j y i y j ( x i ⋅ x j ) + Σ i = 1 N α i s . t . Σ i = 1 N α i y i = 0 C − α i − μ i = 0 α i ≥ 0 μ i ≥ 0 , i = 1 , 2 , . . . , N max_{\alpha}-\frac{1}{2}\Sigma_{i=1}^N\Sigma_{i=1}^N\alpha_i\alpha_jy_iy_j(x_i\cdot x_j)+\Sigma_{i=1}^N\alpha_i\\ s.t.\quad \Sigma_{i=1}^N\alpha_iy_i=0\\ C-\alpha_i-\mu_i=0\\ \alpha_i\ge0\\ \mu_i\ge0,i=1,2,...,N maxα21Σi=1NΣi=1Nαiαjyiyj(xixj)+Σi=1Nαis.t.Σi=1Nαiyi=0Cαiμi=0αi0μi0,i=1,2,...,N
最后三式可写为 0 ≤ α i ≤ C 0\le \alpha_i\le C 0αiC

线性支持向量机算法

输入:线性可分训练集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } T=\{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\} T={(x1,y1),(x2,y2),...,(xN,yN)},其中 x i ∈ χ = R n , y ∈ Y = { 1 , − 1 } , i = 1 , 2 , . . . , N x_i\in \chi =R^n,y\in Y=\{1,-1\},i=1,2,...,N xiχ=Rn,yY={1,1},i=1,2,...,N;
输出:分离超平面和分类决策函数。
(1)选择惩罚系数 C > 0 C>0 C>0,构造并求解凸二次规划问题
m i n α 1 2 Σ i = 1 N Σ i = 1 N α i α j y i y j ( x i ⋅ x j ) − Σ i = 1 N α i s . t . Σ i = 1 N α i y i = 0 C ≥ α i ≥ 0 , i = 1 , 2 , . . . , N min_{\alpha}\frac{1}{2}\Sigma_{i=1}^N\Sigma_{i=1}^N\alpha_i\alpha_jy_iy_j(x_i\cdot x_j)-\Sigma_{i=1}^N\alpha_i\\ s.t.\quad \Sigma_{i=1}^N\alpha_iy_i=0\\ C\ge \alpha_i\ge0,i=1,2,...,N minα21Σi=1NΣi=1Nαiαjyiyj(xixj)Σi=1Nαis.t.Σi=1Nαiyi=0Cαi0,i=1,2,...,N
求得最优解 α ∗ = ( α 1 ∗ , α 2 ∗ , . . . , α N ∗ ) T \alpha^*=(\alpha^*_1,\alpha^*_2,...,\alpha^*_N)^T α=(α1,α2,...,αN)T
(2) 计算
w ∗ = Σ i = 1 N α i ∗ y i x i w^*=\Sigma_{i=1}^N\alpha^*_iy_ix_i w=Σi=1Nαiyixi
选择 α ∗ 的一个分量 α j ∗ 适合条件 0 < α j ∗ < C \alpha^*的一个分量\alpha_j^*适合条件0<\alpha_j^*<C α的一个分量αj适合条件0<αj<C,计算
b ∗ = y j − Σ i = 1 N α i ∗ y i ( x i ⋅ x j ) b^*=y_j-\Sigma_{i=1}^N\alpha^*_iy_i(x_i\cdot x_j) b=yjΣi=1Nαiyi(xixj)
(3)求得分离超平面
w ∗ ⋅ x + b ∗ = 0 w^*\cdot x+b^*=0 wx+b=0
分类决策函数为
f ( x ) = s i g n ( w ∗ ⋅ x + b ∗ ) f(x)=sign(w^*\cdot x+b^*) f(x)=sign(wx+b)
步骤(2)中求得b的值不唯一,故可以取在所有符合条件的样本点上的平均值。
#R语言实现
R有多种实现SVM的方法,例如kernlab包的ksvm,主要是基于核函数的;svmadmm包的svm主要是基于ADMM 和 IADMM算法的线性和非线性函数,另外还有最常用的caret包也有实现SVM方法的。

参考
[1] 李航 《统计学习方法》
[2] 周志华 《机器学习》
[3] 韩家伟《数据挖掘:概念与技术》

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值