1. 支持向量机
1.1. 从logistic回归到支持向量机
logistic回归模型:
minθ1m[∑i=1my(i)(−loghθ(x(i)))+(1−y(i))(−log(1−hθ(x(i))))]+λ2m∑j=1nθj2
\min_{\theta} \frac{1}{m}\left [ \sum_{i=1}^{m}y^{(i)}(-logh_{\theta}(x^{(i)}))+(1-y^{(i)})(-log(1-h_{\theta}(x^{(i)})))\right ]+\frac{\lambda}{2m}\sum_{j=1}^{n}\theta_j^2
θminm1[i=1∑my(i)(−loghθ(x(i)))+(1−y(i))(−log(1−hθ(x(i))))]+2mλj=1∑nθj2
其中−logh(x)=−log11+e−x-logh(x)=-log\frac{1}{1+e^{-x}}−logh(x)=−log1+e−x1的图形如下:

−log(1−h(x))=−log(1−11+e−x)-log(1-h(x))=-log(1-\frac{1}{1+e^{-x}})−log(1−h(x))=−log(1−1+e−x1)的图形如下:

要使logistic回归误差最小,则:
当y=1y=1y=1时,θTx(i)≥0\theta^Tx^{(i)} \ge 0θTx(i)≥0;
当y=0y=0y=0时,θTx(i)≤0\theta^Tx^{(i)} \le 0θTx(i)≤0;
这里支持向量机要求更加严格,要使支持向量机误差最小,则:
当y=1y=1y=1时,θTx(i)≥1\theta^Tx^{(i)} \ge 1θTx(i)≥1;
当y=0y=0y=0时,θTx(i)≤−1\theta^Tx^{(i)}\le -1θTx(i)≤−1;
此时支持向量机的误差函数为:
minθC[∑i=1my(i)cost1(θTx(i))+(1−y(i))cost0(θTx(i))]+12∑j=1nθj2
\min_{\theta} C\left [ \sum_{i=1}^{m}y^{(i)}cost_1(\theta^Tx^{(i)})+(1-y^{(i)})cost_0(\theta^Tx^{(i)})\right ]+\frac{1}{2}\sum_{j=1}^{n}\theta_j^2
θminC[i=1∑my(i)cost1(θTx(i))+(1−y(i))cost0(θTx(i))]+21j=1∑nθj2
其中:
C=1λcost1(θTx(i))={0,if θTx(i)≥1−a1θTx(i)+b1,otherwisecost0(θTx(i))={0,if θTx(i)≤−1a0θTx(i)+b0,otherwise(a1>0,b1>0,a0>0,b0>0)
C=\frac{1}{\lambda} \\
cost_1(\theta^Tx^{(i)})=
\begin{cases}
0, &if\ \theta^Tx^{(i)} \ge 1\\
-a_1\theta^Tx^{(i)}+b_1, &otherwise
\end{cases} \\
cost_0(\theta^Tx^{(i)})=
\begin{cases}
0, &if\ \theta^Tx^{(i)} \le -1\\
a_0\theta^Tx^{(i)}+b_0, &otherwise
\end{cases} \\
(a_1>0, b_1>0, a_0>0, b_0>0)
C=λ1cost1(θTx(i))={0,−a1θTx(i)+b1,if θTx(i)≥1otherwisecost0(θTx(i))={0,a0θTx(i)+b0,if θTx(i)≤−1otherwise(a1>0,b1>0,a0>0,b0>0)

如若能找到一系列θ\thetaθ,使得:
当y=1y=1y=1时,θTx(i)≥1\theta^Tx^{(i)} \ge 1θTx(i)≥1;
当y=0y=0y=0时,θTx(i)≤−1\theta^Tx^{(i)} \le -1θTx(i)≤−1;
则代价函数简化为:
J(θ)=12∑j=1nθj2s.t.{θTx(i)≥1,if y(i)=1θTx(i)≤−1,if y(i)=0
J(\theta)=\frac{1}{2}\sum_{j=1}^{n}\theta_j^2 \\
s.t.
\begin{cases}
\theta^Tx^{(i)} \ge 1, &if\ y^{(i)} = 1\\
\theta^Tx^{(i)} \le -1, &if\ y^{(i)} = 0
\end{cases} \\
J(θ)=21j=1∑nθj2s.t.{θTx(i)≥1,θTx(i)≤−1,if y(i)=1if y(i)=0
令负样本的取值为-1,正样本的取值为+1,则支持向量机的参数表达式为:
minθ 12∣∣θ∣∣2s.t. y(i)θTx(i)≥1,i=1,2,...,n
\begin{aligned}
\min_{\theta}\ \ \ \ &\frac{1}{2}||\theta||^2 \\
s.t. \ \ \ &y^{(i)}\theta^Tx^{(i)} \ge 1, i=1,2,...,n
\end{aligned}
θmin s.t. 21∣∣θ∣∣2y(i)θTx(i)≥1,i=1,2,...,n
1.2. 线性可分支持向量
假设能找到一个超平面,把样本中的所有正样本和负样本区分开来,这样的样本就是线性可分的。

存在一条唯一的超平面,使得各点到该超平面的最小距离最大。
假设该超平面为:
θTx+b=0
\theta^Tx+b=0
θTx+b=0
则各点到该超平面的距离为:
γi=y(i)θTx(i)+b∣∣θ∣∣
\gamma_i = y^{(i)}\frac{\theta^Tx^{(i)}+b}{||\theta||}
γi=y(i)∣∣θ∣∣θTx(i)+b
乘上y(i)y^{(i)}y(i)保证γi\gamma_iγi为正值。
令最小距离为γ\gammaγ,则:
γ=min(γi)=y(k)θTx(k)+b∣∣θ∣∣
\gamma = min(\gamma_i)=y^{(k)}\frac{\theta^Tx^{(k)}+b}{||\theta||}
γ=min(γi)=y(k)∣∣θ∣∣θTx(k)+b
所以该线性可分向量机参数方程为:
maxθ,b γs.t. y(i)θTx(i)+b∣∣θ∣∣≥γ,i=1,2,...,n
\begin{aligned}
\max_{\theta,b}\ \ \ \ &\gamma \\
s.t. \ \ \ \ &y^{(i)}\frac{\theta^Tx^{(i)}+b}{||\theta||} \ge \gamma, i=1,2,...,n
\end{aligned}
θ,bmax s.t. γy(i)∣∣θ∣∣θTx(i)+b≥γ,i=1,2,...,n
等价于:
maxθ,b K1∣∣θ∣∣s.t. 1∣∣θ∣∣γy(i)(θTx(i)+b)≥1,i=1,2,...,n
\begin{aligned}
\max_{\theta,b}\ \ \ \ &K\frac{1}{||\theta||} \\
s.t. \ \ \ \ &\frac{1}{||\theta||\gamma}y^{(i)}(\theta^Tx^{(i)}+b) \ge 1, i=1,2,...,n
\end{aligned}
θ,bmax s.t. K∣∣θ∣∣1∣∣θ∣∣γ1y(i)(θTx(i)+b)≥1,i=1,2,...,n
其中K=y(k)(θTx(k)+b)K=y^{(k)}(\theta^Tx^{(k)}+b)K=y(k)(θTx(k)+b)为常数,将θT\theta^TθT和bbb同时缩小∣∣θ∣∣γ||\theta||\gamma∣∣θ∣∣γ倍,作为新的θT\theta^TθT和bbb。则原式等价于:
minθ 12∣∣θ∣∣2s.t. y(i)(θTx(i)+b)≥1,i=1,2,...,n
\begin{aligned}
\min_{\theta}\ \ \ \ &\frac{1}{2}||\theta||^2 \\
s.t. \ \ \ \ &y^{(i)}(\theta^Tx^{(i)}+b) \ge 1, i=1,2,...,n
\end{aligned}
θmin s.t. 21∣∣θ∣∣2y(i)(θTx(i)+b)≥1,i=1,2,...,n
得到和1.1相同的表达式,这就是线性可分支持向量的满足的约束表达式。
2. 核函数
上述表达式只适用于样本为线性可分的场景,但对于线性不可分的场景就不能适用,这里提出核函数的概念,把线性不可分的样本转变成线性可分的样本。
高斯核函数(Gaussian kernel)
f(x)=e−(x−l)22δ2
f(x)=e^{-\frac{(x-l)^2}{2\delta^2}}
f(x)=e−2δ2(x−l)2
lll为标记点,当xxx与lll相距很近时,f(x)→1f(x) \to 1f(x)→1;当xxx与lll相距很远时,f(x)→0f(x) \to 0f(x)→0;δ\deltaδ越大,曲线下降越慢。
我们将样本输入的每一个点作为一个标记,则有f1,f2,...fmf_1, f_2,...f_mf1,f2,...fm个核函数。则:
minθ 12∣∣θ∣∣2s.t. y(i)(θTf(x(i))+b)≥1,i=1,2,...,n
\begin{aligned}
\min_{\theta}\ \ \ \ &\frac{1}{2}||\theta||^2 \\
s.t. \ \ \ \ &y^{(i)}(\theta^Tf(x^{(i)})+b) \ge 1, i=1,2,...,n
\end{aligned}
θmin s.t. 21∣∣θ∣∣2y(i)(θTf(x(i))+b)≥1,i=1,2,...,n
其中:
θ=[θ1 θ2 ... θm]Tf(x(i))=[e−(x(i)−x(1))22δ2 e−(x(i)−x(2))22δ2 ... e−(x(i)−x(m))22δ2]T
\theta = [\theta_1\ \theta_2\ ...\ \theta_m]^T\\
f(x^{(i)})=[e^{-\frac{(x^{(i)}-x^{(1)})^2}{2\delta^2}}\ e^{-\frac{(x^{(i)}-x^{(2)})^2}{2\delta^2}}\ ...\ e^{-\frac{(x^{(i)}-x^{(m)})^2}{2\delta^2}}]^T
θ=[θ1 θ2 ... θm]Tf(x(i))=[e−2δ2(x(i)−x(1))2 e−2δ2(x(i)−x(2))2 ... e−2δ2(x(i)−x(m))2]T
3. 支持向量机选择时机
logistic回归和不带核函数的支持向量机本质上基本一样,何时使用logistic回归和支持向量机,可通过特征量nnn和样本量mmm来决定。
- n>>mn>>mn>>m,即训练集数据量不够支持我们训练一个复杂的非线性模型,选用logistic回归模型或者不带核函数的支持向量机。
- 如果𝑛较小,而且𝑚大小中等,n∈(1,1000),m∈(10,10000)n\in(1, 1000), m\in(10, 10000)n∈(1,1000),m∈(10,10000),使用高斯核函数的支持向量机。
- 如果𝑛较小,而𝑚较大,n∈(1,1000),m>50000n\in(1, 1000), m > 50000n∈(1,1000),m>50000,则使用支持向量机会非常慢。可以增加更多的特征,然后使用logistic回归或不带核函数的支持向量机。
本文深入探讨了支持向量机(SVM)的工作原理,从logistic回归过渡到SVM,详细解析了SVM如何通过最大化间隔来寻找最优分类超平面,并介绍了在非线性情况下如何利用核函数进行数据转换。
1438

被折叠的 条评论
为什么被折叠?



