【机器学习】支持向量机(5)——SMO算法

本文详细介绍SMO算法原理及其在支持向量机中的应用。SMO算法通过分解大型优化问题为小型子问题,实现高效求解。文章深入浅出地解释了SMO算法的基本思想、求解过程及变量选择方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

通过前几篇博客的介绍,相信大家已经对支持向量机有了一定的了解,我们知道,支持向量机的学习问题可以形式化为求解凸二次规划问题

min⁡α12∑i=1N∑j=1NαiαjyiyjK(xi,xj)−∑i=1Nαis.t.∑i=1Nαiyi=00⩽αi⩽C,i=1,2,...,N\min_\alpha \quad \frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N\alpha_i\alpha_jy_iy_jK(x_i,x_j)- \sum_{i=1}^N\alpha_i \\ s.t. \quad \sum_{i=1}^N\alpha_iy_i =0 \\ 0 \leqslant \alpha_i \leqslant C,\quad i = 1,2,...,Nαmin21i=1Nj=1NαiαjyiyjK(xi,xj)i=1Nαis.t.i=1Nαiyi=00αiC,i=1,2,...,N

其中,一个变量αi\alpha_iαi对应一个样本点(xi,yi)(x_i,y_i)(xi,yi)

这样的凸二次规划问题具有全局最优解,也有许多最优化算法可以用于求解这一问题,但是当训练数据集容量很大时,这些算法往往变得非常低效。

本篇介绍的SMOSMOSMO算法(序列最小最优化算法)便是可以快速求解此问题的算法。

SMOSMOSMO算法

SMOSMOSMO算法是由 JohnPlatt,1998John Platt,1998JohnPlatt,1998 提出,是一种启发式算法。SMOSMOSMO算法是将大优化问题分解为多个小优化问题求解的,这些小优化问题往往很容易求解,并且对它们进行顺序求解的结果与将它们作为整体来说求解的结果是一样的。

SMOSMOSMO算法的目标是求出一系列α\alphaαbbb,一旦求出这些α\alphaα,就很容易计算出权重向量www并且得到分离超平面。

SMOSMOSMO算法的基本思路:

如果所有变量(即拉格朗日乘子αi\alpha_iαi)的解都满足此最优化问题的KKTKKTKKT条件,那么这个最优化问题的解就得到了(因为KKTKKTKKT条件是该最优化问题的充分必要条件)。

此最优化问题的KTTKTTKTT条件:
αi=0⇔yig(xi)⩾10&lt;αi&lt;C⇔yig(xi)=1αi=C⇔yig(xi)⩽1\alpha_i = 0 \Leftrightarrow y_ig(x_i) \geqslant 1 \\ 0 &lt; \alpha_i &lt; C \Leftrightarrow y_ig(x_i)=1 \\ \alpha_i = C \Leftrightarrow y_ig(x_i) \leqslant 1αi=0yig(xi)10<αi<Cyig(xi)=1αi=Cyig(xi)1

其中:
g(xi)=∑j=1NαjyjK(xi,xj)+bg(x_i) = \sum_{j=1}^N\alpha_jy_jK(x_i,x_j)+bg(xi)=j=1NαjyjK(xi,xj)+b

那么问题就是:如何使所有变量都满足KTTKTTKTT条件呢?

先固定αi\alpha_iαi之外的所有参数,然后求αi\alpha_iαi上的极值。由于约束条件∑i=1Nαiyi=0\sum_{i=1}^N\alpha_iy_i =0i=1Nαiyi=0的存在,若固定其他变量,那么αi\alpha_iαi可由其他变量导出。

于是,SMOSMOSMO算法每次循环选择两个变量,固定其他变量,针对这两个变量构建一个二次规划问题,这个二次规划问题关于这两个变量的解应该更接近原始二次规划问题的解,因为这会使得原始二次规划问题的目标函数值变得更小。

小优化问题(子问题)可以通过解析方法求解,这样可以大大提高整个算法的计算速度,子问题有两个变量,一个是违背KKTKKTKKT条件最严重的那一个,一个是由约束条件自动确定。如此,SMOSMOSMO算法将原始问题不断分解为子问题并对子问题求解,进而达到求解原问题的目的。

整个SMOSMOSMO算法包括两个部分:求解两个变量二次规划的解析方法和选择变量的启发式方法。

两个变量二次规划的求解方法

不失一般性,假设选择的两个变量为α1,α2\alpha_1,\alpha_2α1,α2,其他变量αi(i=3,4,...,N)\alpha_i(i=3,4,...,N)αi(i=3,4,...,N)是固定的,于是上面的最优化问题的子问题就可以写为:
min⁡α1,α2W(α1,α2)=12K11α12+12K22α22+y1y2K12α1α2−(α1+α2)+y1α1∑i=3NyiαiKi1+y2α2∑i=3NyiαiKi2s.t.α1y1+α2y2=−∑i=3Nyiαi=ς0⩽αi⩽C,i=1,2\min_{\alpha_1,\alpha_2} \quad W(\alpha_1,\alpha_2) = \frac{1}{2}K_{11}\alpha_1^2+\frac{1}{2}K_{22}\alpha_2^2+y_1y_2K_{12}\alpha_1\alpha_2 \\ -(\alpha_1+\alpha_2)+y_1\alpha_1\sum_{i=3}^Ny_i\alpha_iK_{i1}+y_2\alpha_2\sum_{i=3}^Ny_i\alpha_iK_{i2} \\ s.t. \quad \alpha_1y_1+\alpha_2y_2 = - \sum_{i=3}^Ny_i\alpha_i = \varsigma \\ 0 \leqslant \alpha_i \leqslant C, \quad i=1,2α1,α2minW(α1,α2)=21K11α12+21K22α22+y1y2K12α1α2(α1+α2)+y1α1i=3NyiαiKi1+y2α2i=3NyiαiKi2s.t.α1y1+α2y2=i=3Nyiαi=ς0αiC,i=1,2

其中,Kij=K(xi,xj),i,j=1,2,...,NK_{ij} = K(x_i,x_j),i,j =1,2,...,NKij=K(xi,xj),i,j=1,2,...,Nς\varsigmaς 是常数,yi2=1y_i^2 = 1yi2=1,目标函数中省略了不含α1,α2\alpha_1,\alpha_2α1,α2的常数项。

为了求解两个变量的二次规划问题,首先,我们先来分析约束条件,然后在约束条件下求极小。

因为只有两个变量,我们可以在二维空间表示,由约束条件:
0⩽αi⩽C,i=1,20 \leqslant \alpha_i \leqslant C, \quad i=1,20αiC,i=1,2
可画出二维空间图,如下:

这里写图片描述

由约束条件:
α1y1+α2y2=−∑i=3Nyiαi=ς \alpha_1y_1+\alpha_2y_2 = - \sum_{i=3}^Ny_i\alpha_i = \varsigmaα1y1+α2y2=i=3Nyiαi=ς

可用图中虚线表示,该虚线是平行于对角线的。因此要求的是目标函数在一条平行于对角线的线段(即虚线)上的最优解。

我们可以将两个变量的优化问题变为实质上的单变量的最优化问题,不妨考虑变量为α2\alpha_2α2的最优化问题。

假设两个变量的初始可行解为α1old,α2old\alpha_1^{old},\alpha_2^{old}α1old,α2old,最优解为α1new,α2new\alpha_1^{new},\alpha_2^{new}α1new,α2new,并且假设在沿着约束方向未经剪辑(即未考虑不等式约束0⩽αi⩽C0 \leqslant \alpha_i \leqslant C0αiC)时α2\alpha_2α2的最优解为α2new,unc\alpha_2^{new,unc}α2new,unc

由于α2new\alpha_2^{new}α2new满足不等式约束 0⩽αi⩽C0 \leqslant \alpha_i \leqslant C0αiC,因此最优解α2new\alpha_2^{new}α2new的取值范围必须满足条件:

L⩽α2new⩽HL \leqslant \alpha_2^{new} \leqslant HLα2newH
其中,若 y1≠y2y_1 \neq y_2y1̸=y2,如上图中左图,则:
L=max(0,α2old−α1old)H=min(C,C+α2old−α1old)L = max(0, \alpha_2^{old}- \alpha_1^{old}) \\ H = min(C,C+ \alpha_2^{old}- \alpha_1^{old} )L=max(0,α2oldα1old)H=min(C,C+α2oldα1old)
y1=y2y_1 = y_2y1=y2,如上图中的右图,则:
L=max(0,α2old+α1old−C)H=min(C,α2old+α1old)L = max(0, \alpha_2^{old}+\alpha_1^{old}-C) \\ H = min(C, \alpha_2^{old}+ \alpha_1^{old} )L=max(0,α2old+α1oldC)H=min(C,α2old+α1old)

下面我们先求沿着约束方向未经剪辑时α2\alpha_2α2的最优解α2new,unc\alpha_2^{new,unc}α2new,unc;然后再就剪辑后α2\alpha_2α2的最优解α2new\alpha_2^{new}α2new

再求之前,我们先记:
g(xi)=∑j=1NαjyjK(xi,xj)+bg(x_i) = \sum_{j=1}^N\alpha_jy_jK(x_i,x_j)+bg(xi)=j=1NαjyjK(xi,xj)+b
令:
Ei=g(xi)−yi=(∑j=1NαjyjK(xi,xj)+b)−yi,i=1,2E_i = g(x_i) - y_i = (\sum_{j=1}^N\alpha_jy_jK(x_i,x_j)+b)-y_i, \quad i=1,2Ei=g(xi)yi=(j=1NαjyjK(xi,xj)+b)yi,i=1,2
i=1,2i=1,2i=1,2时,EiE_iEi为函数g(x)g(x)g(x)对输入xix_ixi 的预测值与真实输出 yiy_iyi 之差

定理:
最优化问题沿着约束方向未经剪辑时的解为:
α2new,unc=α2old+y2(E1−E2)η\alpha_2^{new,unc} = \alpha_2^{old}+\frac{y_2(E_1-E_2)}{\eta}α2new,unc=α2old+ηy2(E1E2)
其中:
η=K11+K22−2K12\eta = K_{11}+ K_{22}-2 K_{12}η=K11+K222K12
经剪辑后α2\alpha_2α2的解是:
α2new={H,α2new,unc&gt;Hα2new,unc, L⩽α2new,unc⩽HL,α2new,unc&lt;L\alpha_2^{new} = \begin{cases} H, \quad \quad \quad \quad \alpha_2^{new,unc} &gt; H \\ \alpha_2^{new,unc}, \quad \ L \leqslant \alpha_2^{new,unc} \leqslant H \\ L, \quad \quad \quad \quad \alpha_2^{new,unc}&lt;L \end{cases}α2new=H,α2new,unc>Hα2new,unc, Lα2new,uncHL,α2new,unc<L
α2new\alpha_2^{new}α2new求得α1new\alpha_1^{new}α1new是:
α1new=α1old+y1y2(α2old−α2new)\alpha_1^{new} = \alpha_1^{old}+y_1y_2(\alpha_2^{old}-\alpha_2^{new})α1new=α1old+y1y2(α2oldα2new)

证明:
引进记号:
vi=∑j=3NαjyjK(xi,xj)=g(xi)−∑j=12αjyjK(xi,xj)−b,i=1,2v_i = \sum_{j=3}^N\alpha_jy_jK(x_i,x_j) = g(x_i) - \sum_{j=1}^2\alpha_jy_jK(x_i,x_j)-b, \quad i=1,2vi=j=3NαjyjK(xi,xj)=g(xi)j=12αjyjK(xi,xj)b,i=1,2
目标函数可写成:
W(α1,α2)=12K11α12+12K22α22+y1y2K12α1α2−(α1+α2)+y1v1α1+y2v2α2W(\alpha_1,\alpha_2) = \frac{1}{2}K_{11}\alpha_1^2+\frac{1}{2}K_{22}\alpha_2^2+y_1y_2K_{12}\alpha_1\alpha_2 -(\alpha_1+\alpha_2)+y_1v_1\alpha_1+y_2v_2\alpha_2W(α1,α2)=21K11α12+21K22α22+y1y2K12α1α2(α1+α2)+y1v1α1+y2v2α2
α1y1=ς−α2y2\alpha_1y_1 = \varsigma - \alpha_2y_2α1y1=ςα2y2以及yi2=1y_i^2 =1yi2=1,可将α1\alpha_1α1表示为:
α1=(ς−y2α2)y1\alpha_1 = (\varsigma-y_2\alpha_2)y_1α1=(ςy2α2)y1
代入改写后的目标函数得:
W(α1,α2)=12K11(ς−y2α2)2+12K22α22+y2K12(ς−y2α2)α2−(ς−y2α2)y1−α2+v1(ς−y2α2)+y2v2α2W(\alpha_1,\alpha_2) = \frac{1}{2}K_{11}(\varsigma-y_2\alpha_2)^2+\frac{1}{2}K_{22}\alpha_2^2+y_2K_{12}(\varsigma-y_2\alpha_2)\alpha_2 -(\varsigma-y_2\alpha_2)y_1-\alpha_2+v_1(\varsigma-y_2\alpha_2)+y_2v_2\alpha_2W(α1,α2)=21K11(ςy2α2)2+21K22α22+y2K12(ςy2α2)α2(ςy2α2)y1α2+v1(ςy2α2)+y2v2α2
α2\alpha_2α2求偏导:
∂W∂α2=K11α2+K22α2−2K12α2−K11ςy2+K12ςy2+y1y2−1−v1y2+y2v2\frac{\partial W}{\partial \alpha_2} = K_{11}\alpha_2+K_{22}\alpha_2-2K_{12}\alpha_2-K_{11}\varsigma y_2+K_{12}\varsigma y_2+y_1y_2-1-v_1y_2+y_2v_2α2W=K11α2+K22α22K12α2K11ςy2+K12ςy2+y1y21v1y2+y2v2
另偏导数为0,得到:
(K11+K22−2K12)α2=y2(y2−y1+ςK11−ςK12+v1−v2)=y2[y2−y1+ςK11−ςK12+(g(x1)−∑j=12yjαjK1j−b)−(g(x2)−∑j=12yjαjK2j−b)](K_{11}+K_{22}-2K_{12})\alpha_2 = y_2(y_2-y_1+\varsigma K_{11}-\varsigma K_{12}+v_1-v_2) \\ = y_2\Big[y_2-y_1+\varsigma K_{11}-\varsigma K_{12}+\Big(g(x_1) - \sum_{j=1}^2y_j\alpha_jK_{1j}-b\Big)-\Big(g(x_2) - \sum_{j=1}^2y_j\alpha_jK_{2j}-b\Big)\Big](K11+K222K12)α2=y2(y2y1+ςK11ςK12+v1v2)=y2[y2y1+ςK11ςK12+(g(x1)j=12yjαjK1jb)(g(x2)j=12yjαjK2jb)]
ς=α1oldy1+α2oldy2\varsigma = \alpha_1^{old}y_1+\alpha_2^{old}y_2ς=α1oldy1+α2oldy2代入,得到:
(K11+K22−2K12)α2new,unc=y2((K11+K22−2K12)α2oldy2+y2−y1+g(x1)−g(x2))=(K11+K22−2K12)α2old+y2(E1−E2)(K_{11}+K_{22}-2K_{12})\alpha_2^{new,unc}=y_2\Big((K_{11}+K_{22}-2K_{12})\alpha_2^{old}y_2+y_2-y_1+g(x_1)-g(x_2)\Big) \\ = (K_{11}+K_{22}-2K_{12})\alpha_2^{old}+y_2(E_1-E_2)(K11+K222K12)α2new,unc=y2((K11+K222K12)α2oldy2+y2y1+g(x1)g(x2))=(K11+K222K12)α2old+y2(E1E2)
η=K11+K22−2K12\eta = K_{11}+K_{22}-2K_{12}η=K11+K222K12代入,得到:
α2new.unc=α2old+y2(E1−E2)η\alpha_2^{new.unc} = \alpha_2^{old}+\frac{y_2(E_1-E_2)}{\eta}α2new.unc=α2old+ηy2(E1E2)
要是其满足不等式约束必须限制在[L,H][L,H][L,H]内,从而得到α2new\alpha_2^{new}α2new的表达式:
α2new={H,α2new,unc&gt;Hα2new,unc, L⩽α2new,unc⩽HL,α2new,unc&lt;L\alpha_2^{new} = \begin{cases} H, \quad \quad \quad \quad \alpha_2^{new,unc} &gt; H \\ \alpha_2^{new,unc}, \quad \ L \leqslant \alpha_2^{new,unc} \leqslant H \\ L, \quad \quad \quad \quad \alpha_2^{new,unc}&lt;L \end{cases}α2new=H,α2new,unc>Hα2new,unc, Lα2new,uncHL,α2new,unc<L
由等式约束:α1y1+α2y2=ς\alpha_1y_1+\alpha_2y_2 = \varsigmaα1y1+α2y2=ς得到α1new\alpha_1^{new}α1new的表达式:
α1new=α1old+y1y2(α2old−α2new)\alpha_1^{new} = \alpha_1^{old}+y_1y_2(\alpha_2^{old}-\alpha_2^{new})α1new=α1old+y1y2(α2oldα2new)
至此,我们就得到了最优化问题的解:
(α1new,α2new)(\alpha_1^{new},\alpha_2^{new})(α1new,α2new)

变量的选择方法

SMOSMOSMO称选择第一个变量的过程为外层循环,外层循环在训练样本中选违反KKTKKTKKT条件最严重的样本点,并将其对应的变量作为第一个变量。具体地,检验训练样本点(xi,yi)(x_i,y_i)(xi,yi)是否满足KKTKKTKKT条件。

SMOSMOSMO称选择第二个变量的过程为内层循环。假设在外层循环中已经找到第一个变量α1\alpha_1α1,现在要在内层循环中找第二个变量α2\alpha_2α2。第二个变量选择的标准是希望能使α2\alpha_2α2有足够大的变化。有前面的公式可知,α2new\alpha_2^{new}α2new依赖于∣E1−E2∣|E_1-E_2|E1E2,一种简单的做法就是使其对应的∣E1−E2∣|E_1-E_2|E1E2最大,因为α1\alpha_1α1已定,E1E_1E1也就确定了。那么,如果E1E_1E1为正的,那么选择最小的EiE_iEi作为E2E_2E2;如果E1E_1E1为负的,那么选择最大的EiE_iEi作为E2E_2E2

一般情况下,采用启发式规则选择第二个变量α2\alpha_2α2。遍历在间隔边界上的支持向量点,依次将其对应的变量作为α2\alpha_2α2试用,直到目标函数有足够的下降。若找不到合适的α2\alpha_2α2,那么遍历整个训练数据集;若找不到合适的α2\alpha_2α2,则放弃第一个α2\alpha_2α2,再通过外层循环寻找另一个α1\alpha_1α1

计算阀值bbb和差值EiE_iEi

在每次完成两个变量的优化后,都要重新计算阀值bbb,当0&lt;α1new&lt;C0 &lt; \alpha_1^{new} &lt; C0<α1new<C时,由KKTKKTKKT条件可知:
∑i=1NαiyiKi1+b=y1\sum_{i=1}^N\alpha_iy_iK_{i1} + b = y_1i=1NαiyiKi1+b=y1
于是:
b1new=y1−∑i=3NαiyiKi1−α1newy1K11−α2newy2K21b_1^{new} = y_1 - \sum_{i=3}^N\alpha_iy_iK_{i1} - \alpha_1^{new}y_1K_{11} - \alpha_2^{new}y_2K_{21} b1new=y1i=3NαiyiKi1α1newy1K11α2newy2K21
由前面我们定义式EiE_iEi得:
E1=∑i=3NαiyiKi1+α1oldy1K11+α2oldy2K21+bold−y1E_1 = \sum_{i=3}^N\alpha_iy_iK_{i1} +\alpha_1^{old}y_1K_{11} + \alpha_2^{old}y_2K_{21} + b^{old}-y_1E1=i=3NαiyiKi1+α1oldy1K11+α2oldy2K21+boldy1
根据上面式子得:
y1−∑i=3NαiyiKi1=−E1+α1oldy1K11+α2oldy2K21+boldy_1 - \sum_{i=3}^N\alpha_iy_iK_{i1} = -E_1+ \alpha_1^{old}y_1K_{11} + \alpha_2^{old}y_2K_{21} + b^{old}y1i=3NαiyiKi1=E1+α1oldy1K11+α2oldy2K21+bold
代入上面b1newb_1^{new}b1new式子得:
b1new=−E1−y1K11(α1new−α1old)−y2K21(α2new−α2old)+boldb_1^{new} = -E_1 - y_1K_{11}(\alpha_1^{new}-\alpha_1^{old}) - y_2K_{21}(\alpha_2^{new}-\alpha_2^{old}) + b^{old}b1new=E1y1K11(α1newα1old)y2K21(α2newα2old)+bold
同样,如果0&lt;α2new&lt;C0 &lt; \alpha_2^{new} &lt; C0<α2new<C,那么:
b2new=−E2−y1K12(α1new−α1old)−y2K22(α2new−α2old)+boldb_2^{new} = -E_2 - y_1K_{12}(\alpha_1^{new}-\alpha_1^{old}) - y_2K_{22}(\alpha_2^{new}-\alpha_2^{old}) + b^{old}b2new=E2y1K12(α1newα1old)y2K22(α2newα2old)+bold

如果α1new,α2new\alpha_1^{new},\alpha_2^{new}α1new,α2new同时满足0&lt;αinew&lt;C,i=1,20 &lt; \alpha_i^{new} &lt; C, i=1,20<αinew<C,i=1,2,那么b1new=b2newb_1^{new} = b_2^{new}b1new=b2new
如果 α1new,α2new\alpha_1^{new},\alpha_2^{new}α1new,α2new000 或者 CCC,那么b1new,b2newb_1^{new} ,b_2^{new}b1newb2new以及他们之前的数都满足KKTKKTKKT条件的阀值,选择他们的中点作为bnewb^{new}bnew,即:
bnew=b1new+b2new2b^{new} = \frac{b_1^{new} + b_2^{new}}{2}bnew=2b1new+b2new

在每次计算两个变量的优化之后,还必须更新对应的 EiE_iEi 值,并保存在列表中。EiE_iEi值的更新需要用到bnewb^{new}bnew值,以及所有支持向量对应的αj\alpha_jαj
Einew=∑SyjαjK(xi,yj)+bnew−yiE_i^{new} = \sum_Sy_j\alpha_jK(x_i,y_j)+b^{new}-y_iEinew=SyjαjK(xi,yj)+bnewyi
其中,SSS是所有支持向量xjx_jxj的集合。

至此SMOSMOSMO算法可描述为:

输入:训练数据集
T={(x1,y1),(x2,y2),...,(xN,yN)}T = \{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\}T={(x1,y1),(x2,y2),...,(xN,yN)},其中,xi∈X=Rn,yi∈Y={−1,+1},i=1,2,...,Nx_i \in \mathcal{X} = R^n,y_i \in \mathcal{Y} = \{-1,+1\},i =1,2,...,NxiX=Rn,yiY={1,+1},i=1,2,...,N,精度为$\varepsilon ;输出:近似解; 输出:近似解\alpha$
(1)取初值α(0)=0\alpha^{(0)} = 0α(0)=0,令k=0k=0k=0
(2)选取优化变量α1(k),α2(k)\alpha_1^{(k)},\alpha_2^{(k)}α1(k),α2(k),解析求解两个变量的最优化问题,求得最优解α1(k+1),α1(k+1)\alpha_1^{(k+1)},\alpha_1^{(k+1)}α1(k+1),α1(k+1)
(3)若在进度ε\varepsilonε范围内满足停止条件:
∑i=1Naiyi=00⩽αi⩽C,i=1,2,..,Nyi⋅g(xi)={⩾1,{xi∣αi=0}=1,{xi∣0&lt;αi&lt;C}⩽1,{xi∣αi=C}\sum_{i=1}^Na_iy_i = 0\\ 0 \leqslant \alpha_i \leqslant C, \quad i = 1,2,..,N \\ y_i \cdot g(x_i) = \begin{cases} \geqslant 1, \quad \{x_i | \alpha_i =0 \} \\ = 1,\quad \{x_i |0 &lt; \alpha_i &lt;C \} \\ \leqslant 1,\quad \{x_i | \alpha_i =C \} \\ \end{cases}i=1Naiyi=00αiC,i=1,2,..,Nyig(xi)=1,{xiαi=0}=1,{xi0<αi<C}1,{xiαi=C}
其中,
g(xi)=∑j=1NαjyjK(xi,xj)+bg(x_i) = \sum_{j=1}^N\alpha_jy_jK(x_i,x_j)+bg(xi)=j=1NαjyjK(xi,xj)+b
则转(4);否则令k=k+1k = k+1k=k+1,转(2);
(4)取α=α(k+1)\alpha = \alpha^{(k+1)}α=α(k+1)

注:
本篇源自《统计学习方法》李航
由于博主也正在学习,里面肯定会存在一些错误,还望纠正
关于最优化求解,感兴趣的可以通过相关课本学习一下

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值