支持向量机和核函数

本文深入探讨了支持向量机(SVM)的工作原理,从logistic回归过渡到SVM,详细解析了SVM如何通过最大化间隔来寻找最优分类超平面,并介绍了在非线性情况下如何利用核函数进行数据转换。

1. 支持向量机

1.1. 从logistic回归到支持向量机

logistic回归模型:
min⁡θ1m[∑i=1my(i)(−loghθ(x(i)))+(1−y(i))(−log(1−hθ(x(i))))]+λ2m∑j=1nθj2 \min_{\theta} \frac{1}{m}\left [ \sum_{i=1}^{m}y^{(i)}(-logh_{\theta}(x^{(i)}))+(1-y^{(i)})(-log(1-h_{\theta}(x^{(i)})))\right ]+\frac{\lambda}{2m}\sum_{j=1}^{n}\theta_j^2 θminm1[i=1my(i)(loghθ(x(i)))+(1y(i))(log(1hθ(x(i))))]+2mλj=1nθj2
其中−logh(x)=−log11+e−x-logh(x)=-log\frac{1}{1+e^{-x}}logh(x)=log1+ex1的图形如下:
-logh
−log(1−h(x))=−log(1−11+e−x)-log(1-h(x))=-log(1-\frac{1}{1+e^{-x}})log(1h(x))=log(11+ex1)的图形如下:
-log1-h
要使logistic回归误差最小,则:
y=1y=1y=1时,θTx(i)≥0\theta^Tx^{(i)} \ge 0θTx(i)0
y=0y=0y=0时,θTx(i)≤0\theta^Tx^{(i)} \le 0θTx(i)0
这里支持向量机要求更加严格,要使支持向量机误差最小,则:
y=1y=1y=1时,θTx(i)≥1\theta^Tx^{(i)} \ge 1θTx(i)1
y=0y=0y=0时,θTx(i)≤−1\theta^Tx^{(i)}\le -1θTx(i)1
此时支持向量机的误差函数为:
min⁡θC[∑i=1my(i)cost1(θTx(i))+(1−y(i))cost0(θTx(i))]+12∑j=1nθj2 \min_{\theta} C\left [ \sum_{i=1}^{m}y^{(i)}cost_1(\theta^Tx^{(i)})+(1-y^{(i)})cost_0(\theta^Tx^{(i)})\right ]+\frac{1}{2}\sum_{j=1}^{n}\theta_j^2 θminC[i=1my(i)cost1(θTx(i))+(1y(i))cost0(θTx(i))]+21j=1nθj2
其中:
C=1λcost1(θTx(i))={0,if θTx(i)≥1−a1θTx(i)+b1,otherwisecost0(θTx(i))={0,if θTx(i)≤−1a0θTx(i)+b0,otherwise(a1>0,b1>0,a0>0,b0>0) C=\frac{1}{\lambda} \\ cost_1(\theta^Tx^{(i)})= \begin{cases} 0, &if\ \theta^Tx^{(i)} \ge 1\\ -a_1\theta^Tx^{(i)}+b_1, &otherwise \end{cases} \\ cost_0(\theta^Tx^{(i)})= \begin{cases} 0, &if\ \theta^Tx^{(i)} \le -1\\ a_0\theta^Tx^{(i)}+b_0, &otherwise \end{cases} \\ (a_1>0, b_1>0, a_0>0, b_0>0) C=λ1cost1(θTx(i))={0,a1θTx(i)+b1,if θTx(i)1otherwisecost0(θTx(i))={0,a0θTx(i)+b0,if θTx(i)1otherwise(a1>0,b1>0,a0>0,b0>0)
costimg
如若能找到一系列θ\thetaθ,使得:
y=1y=1y=1时,θTx(i)≥1\theta^Tx^{(i)} \ge 1θTx(i)1
y=0y=0y=0时,θTx(i)≤−1\theta^Tx^{(i)} \le -1θTx(i)1
则代价函数简化为:
J(θ)=12∑j=1nθj2s.t.{θTx(i)≥1,if y(i)=1θTx(i)≤−1,if y(i)=0 J(\theta)=\frac{1}{2}\sum_{j=1}^{n}\theta_j^2 \\ s.t. \begin{cases} \theta^Tx^{(i)} \ge 1, &if\ y^{(i)} = 1\\ \theta^Tx^{(i)} \le -1, &if\ y^{(i)} = 0 \end{cases} \\ J(θ)=21j=1nθj2s.t.{θTx(i)1,θTx(i)1,if y(i)=1if y(i)=0
令负样本的取值为-1,正样本的取值为+1,则支持向量机的参数表达式为:
min⁡θ    12∣∣θ∣∣2s.t.   y(i)θTx(i)≥1,i=1,2,...,n \begin{aligned} \min_{\theta}\ \ \ \ &\frac{1}{2}||\theta||^2 \\ s.t. \ \ \ &y^{(i)}\theta^Tx^{(i)} \ge 1, i=1,2,...,n \end{aligned} θmin    s.t.   21θ2y(i)θTx(i)1,i=1,2,...,n

1.2. 线性可分支持向量

假设能找到一个超平面,把样本中的所有正样本和负样本区分开来,这样的样本就是线性可分的。
svm1
存在一条唯一的超平面,使得各点到该超平面的最小距离最大。
假设该超平面为:
θTx+b=0 \theta^Tx+b=0 θTx+b=0
则各点到该超平面的距离为:
γi=y(i)θTx(i)+b∣∣θ∣∣ \gamma_i = y^{(i)}\frac{\theta^Tx^{(i)}+b}{||\theta||} γi=y(i)θθTx(i)+b
乘上y(i)y^{(i)}y(i)保证γi\gamma_iγi为正值。
令最小距离为γ\gammaγ,则:
γ=min(γi)=y(k)θTx(k)+b∣∣θ∣∣ \gamma = min(\gamma_i)=y^{(k)}\frac{\theta^Tx^{(k)}+b}{||\theta||} γ=min(γi)=y(k)θθTx(k)+b
所以该线性可分向量机参数方程为:
max⁡θ,b    γs.t.    y(i)θTx(i)+b∣∣θ∣∣≥γ,i=1,2,...,n \begin{aligned} \max_{\theta,b}\ \ \ \ &\gamma \\ s.t. \ \ \ \ &y^{(i)}\frac{\theta^Tx^{(i)}+b}{||\theta||} \ge \gamma, i=1,2,...,n \end{aligned} θ,bmax    s.t.    γy(i)θθTx(i)+bγ,i=1,2,...,n
等价于:
max⁡θ,b    K1∣∣θ∣∣s.t.    1∣∣θ∣∣γy(i)(θTx(i)+b)≥1,i=1,2,...,n \begin{aligned} \max_{\theta,b}\ \ \ \ &K\frac{1}{||\theta||} \\ s.t. \ \ \ \ &\frac{1}{||\theta||\gamma}y^{(i)}(\theta^Tx^{(i)}+b) \ge 1, i=1,2,...,n \end{aligned} θ,bmax    s.t.    Kθ1θγ1y(i)(θTx(i)+b)1,i=1,2,...,n
其中K=y(k)(θTx(k)+b)K=y^{(k)}(\theta^Tx^{(k)}+b)K=y(k)(θTx(k)+b)为常数,将θT\theta^TθTbbb同时缩小∣∣θ∣∣γ||\theta||\gammaθγ倍,作为新的θT\theta^TθTbbb。则原式等价于:
min⁡θ    12∣∣θ∣∣2s.t.    y(i)(θTx(i)+b)≥1,i=1,2,...,n \begin{aligned} \min_{\theta}\ \ \ \ &\frac{1}{2}||\theta||^2 \\ s.t. \ \ \ \ &y^{(i)}(\theta^Tx^{(i)}+b) \ge 1, i=1,2,...,n \end{aligned} θmin    s.t.    21θ2y(i)(θTx(i)+b)1,i=1,2,...,n
得到和1.1相同的表达式,这就是线性可分支持向量的满足的约束表达式。

2. 核函数

上述表达式只适用于样本为线性可分的场景,但对于线性不可分的场景就不能适用,这里提出核函数的概念,把线性不可分的样本转变成线性可分的样本。
高斯核函数(Gaussian kernel)
f(x)=e−(x−l)22δ2 f(x)=e^{-\frac{(x-l)^2}{2\delta^2}} f(x)=e2δ2(xl)2
lll为标记点,当xxxlll相距很近时,f(x)→1f(x) \to 1f(x)1;当xxxlll相距很远时,f(x)→0f(x) \to 0f(x)0δ\deltaδ越大,曲线下降越慢。
我们将样本输入的每一个点作为一个标记,则有f1,f2,...fmf_1, f_2,...f_mf1,f2,...fm个核函数。则:
min⁡θ    12∣∣θ∣∣2s.t.    y(i)(θTf(x(i))+b)≥1,i=1,2,...,n \begin{aligned} \min_{\theta}\ \ \ \ &\frac{1}{2}||\theta||^2 \\ s.t. \ \ \ \ &y^{(i)}(\theta^Tf(x^{(i)})+b) \ge 1, i=1,2,...,n \end{aligned} θmin    s.t.    21θ2y(i)(θTf(x(i))+b)1,i=1,2,...,n
其中:
θ=[θ1 θ2 ... θm]Tf(x(i))=[e−(x(i)−x(1))22δ2 e−(x(i)−x(2))22δ2 ... e−(x(i)−x(m))22δ2]T \theta = [\theta_1\ \theta_2\ ...\ \theta_m]^T\\ f(x^{(i)})=[e^{-\frac{(x^{(i)}-x^{(1)})^2}{2\delta^2}}\ e^{-\frac{(x^{(i)}-x^{(2)})^2}{2\delta^2}}\ ...\ e^{-\frac{(x^{(i)}-x^{(m)})^2}{2\delta^2}}]^T θ=[θ1 θ2 ... θm]Tf(x(i))=[e2δ2(x(i)x(1))2 e2δ2(x(i)x(2))2 ... e2δ2(x(i)x(m))2]T

3. 支持向量机选择时机

logistic回归和不带核函数的支持向量机本质上基本一样,何时使用logistic回归和支持向量机,可通过特征量nnn和样本量mmm来决定。

  1. n>>mn>>mn>>m,即训练集数据量不够支持我们训练一个复杂的非线性模型,选用logistic回归模型或者不带核函数的支持向量机。
  2. 如果𝑛较小,而且𝑚大小中等,n∈(1,1000),m∈(10,10000)n\in(1, 1000), m\in(10, 10000)n(1,1000),m(10,10000),使用高斯核函数的支持向量机。
  3. 如果𝑛较小,而𝑚较大,n∈(1,1000),m>50000n\in(1, 1000), m > 50000n(1,1000),m>50000,则使用支持向量机会非常慢。可以增加更多的特征,然后使用logistic回归或不带核函数的支持向量机。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值