改进的迭代尺度算法(IIS)

本文深入探讨了改进的迭代尺度算法(IIS),一种用于最大熵模型学习的优化方法。详细介绍了算法的核心思想,包括如何通过更新参数向量来最大化对数似然函数,以及在迭代过程中如何求解关键方程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

改进的迭代尺度算法(Improved Iterative Scaling ,IIS)

改进的迭代尺度算法是一种最大熵模型学习的最优化方法,其核心思想是:假设最大熵模型当前的参数向量是 www,希望找到一个新的参数向量 w+δw+\deltaw+δ,使得当前模型的对数似然函数值 Ψ\PsiΨ 增加。重复这一过程,直至找到对数似然函数的最大值。

已知最大熵模型为:
(1)Pw(y∣x)=1Zw(x)exp⁡(∑i=1nwifi(x,y)) P_{w}(y|x)=\frac{1}{Z_{w}(x)}\exp\left (\sum_{i=1}^{n}w_{i}f_{i}(x,y)\right ) \tag{1} Pw(yx)=Zw(x)1exp(i=1nwifi(x,y))(1)
其中(2)Zw(x)=∑yexp⁡(∑i=1nwifi(x,y))(规范化因子)Z_{w}(x)=\sum_{y}\exp\left (\sum_{i=1}^{n}w_{i}f_{i}(x,y)\right )(规范化因子)\tag{2}Zw(x)=yexp(i=1nwifi(x,y))(2)
f(x,y)={1,若x,y满足某一事实0,否则 f(x,y)=\left\{\begin{matrix} 1,若 x,y 满足某一事实\\ 0,否则\end{matrix}\right. f(x,y)={1x,y0
对数似然函数:
(3)Ψ(w)=∑x,yp~(x,y)∑i=1nwifi(x,y)−∑xp~(x)log⁡Zw(x) \Psi(w) =\sum_{x,y}\tilde{p}(x,y)\sum_{i=1}^{n}w_{i}f_{i}(x,y)-\sum_{x}\tilde{p}(x)\log Z_{w}(x)\tag{3} Ψ(w)=x,yp~(x,y)i=1nwifi(x,y)xp~(x)logZw(x)(3)
其中,∑x,yp~(x,y)=∑xp~(x)\sum_{x,y}\tilde{p}(x,y)=\sum_{x}\tilde{p}(x)x,yp~(x,y)=xp~(x)

可以看到 Ψ≤0\Psi \leq 0Ψ0,所以,Ψ(w)=0\Psi(w)=0Ψ(w)=0 是最优的。

现在我们需要求的就是使 Ψ(w)\Psi(w)Ψ(w) 值最大时所对应的参数 www 的值。

给定特征函数集 f1,f2,...,fn{f_{1},f_{2},...,f_{n}}f1,f2,...,fn,最大熵模型(1)和经验分布 P~(x,y)\tilde{P}(x,y)P~(x,y),下面求 W∗W^{*}W,使得 W∗=arg⁡max⁡wΨ(w)W^{*}=\arg \max_{w}\Psi(w)W=argmaxwΨ(w)
由定义:(4)Ψ(w)=∑x,yp~(x,y)log⁡pw(y∣x)\Psi(w)=\sum_{x,y}\tilde{p}(x,y)\log p_{w}(y|x)\tag{4}Ψ(w)=x,yp~(x,y)logpw(yx)(4)

IIS 的想法是:假设最大熵模型当前的参数向量是 w=(w1,w2,...,wn)Tw=(w_{1},w_{2},...,w_{n})^Tw=(w1,w2,...,wn)T,我们希望找到一个新的参数向量 w+δ=(w1+δ1,w2+δ2,,...,wn+δn)Tw+\delta=(w_{1}+\delta_{1},w_{2}+\delta_{2},,...,w_{n}+\delta_{n})^{T}w+δ=(w1+δ1,w2+δ2,,...,wn+δn)T,使得模型的对数似然函数值增大。如果能有一种向量的更新方法:w:w+δw:w+\deltaw:w+δ,那么就可以重复使用这一方法直到找到对数似然函数得最大值。

第一步:

由(4)得,模型参数从 wwww+δw+\deltaw+δ,对数似然函数得改变量为:
Ψ(w+δ)−Ψ(w)=由(4)式∑x,yp~(x,y)log⁡pw+δ(y∣x)−∑x,yp~(x,y)log⁡pw(y∣x)=由(3)式∑x,yp~(x,y)∑i=1n(wi+δi)fi(x,y)−∑xp~(x)log⁡Zw+δ(x)−(∑x,yp~(x,y)∑i=1nwifi(x,y)−∑xp~(x)log⁡Zw(x))=∑x,yp~(x,y)∑i=1nδifi(x,y)−∑xp~(x)log⁡Zw+δ(x)Zw(x)\Psi(w+\delta)-\Psi(w)\overset{由(4)式}{=}\sum_{x,y}\tilde{p}(x,y)\log p_{w+\delta}(y|x)-\sum_{x,y}\tilde{p}(x,y)\log p_{w}(y|x)\\ \overset{由(3)式}{=}\sum_{x,y}\tilde{p}(x,y)\sum_{i=1}^{n}(w_{i}+\delta_{i})f_{i}(x,y)-\sum_{x}\tilde{p}(x)\log Z_{w+\delta}(x)-\left (\sum_{x,y}\tilde{p}(x,y)\sum_{i=1}^{n}w_{i}f_{i}(x,y)-\sum_{x}\tilde{p}(x)\log Z_{w}(x)\right )\\ =\sum_{x,y}\tilde{p}(x,y)\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)-\sum_{x}\tilde{p}(x)\log \frac{Z_{w+\delta}(x)}{Z_{w}(x)} Ψ(w+δ)Ψ(w)=4x,yp~(x,y)logpw+δ(yx)x,yp~(x,y)logpw(yx)=3x,yp~(x,y)i=1n(wi+δi)fi(x,y)xp~(x)logZw+δ(x)(x,yp~(x,y)i=1nwifi(x,y)xp~(x)logZw(x))=x,yp~(x,y)i=1nδifi(x,y)xp~(x)logZw(x)Zw+δ(x)

利用不等式:−log⁡α≥1−α(α>0)-\log \alpha\geq1-\alpha (\alpha>0)logα1α(α>0) ( 由 x≤ex−1(x>0)⇒log⁡x≤x−1(x>0)x\leq e^{x-1}(x>0)\Rightarrow \log x\leq x-1(x>0)xex1(x>0)logxx1(x>0) 得到上述不等式)

建立对数似然函数改变量的下界:
⇒Ψ(w+δ)−Ψ(w)≥∑x,yp~(x,y)∑i=1nδifi(x,y)−∑xp~(x)(Zw+δ(x)Zw(x)−1)=∑x,yp~(x,y)∑i=1nδifi(x,y)+1−∑xp~(x)Zw+δ(x)Zw(x) \Rightarrow \Psi(w+\delta)-\Psi(w)\geq \sum_{x,y}\tilde{p}(x,y)\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)-\sum_{x}\tilde{p}(x)\left ( \frac{Z_{w+\delta}(x)}{Z_{w}(x)}-1\right )\\ =\sum_{x,y}\tilde{p}(x,y)\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)+1-\sum_{x}\tilde{p}(x)\frac{Z_{w+\delta}(x)}{Z_{w}(x)} Ψ(w+δ)Ψ(w)x,yp~(x,y)i=1nδifi(x,y)xp~(x)(Zw(x)Zw+δ(x)1)=x,yp~(x,y)i=1nδifi(x,y)+1xp~(x)Zw(x)Zw+δ(x)
对于 Zw+δ(x)Zw(x)\frac{Z_{w+\delta}(x)}{Z_{w}(x)}Zw(x)Zw+δ(x),根据 Zw(x)=∑yexp⁡(∑i=1nwifi(x,y))Z_{w}(x)=\sum_{y}\exp (\sum_{i=1}^{n}w_{i}f_{i}(x,y))Zw(x)=yexp(i=1nwifi(x,y))
⇒Zw+δ(x)Zw(x)=1Zw(x)⋅∑yexp⁡(∑i=1n(wi+δi)fi(x,y))=1Zw(x)⋅∑yexp⁡(∑i=1nwifi(x,y)+∑i=1nδifi(x,y))=1Zw(x)∑yexp⁡(∑i=1nwifi(x,y))exp⁡(∑i=1nδifi(x,y))=∑y1Zw(x)exp⁡(∑i=1nwifi(x,y))exp⁡(∑i=1nδifi(x,y))=∑ypw(y∣x)⋅exp⁡(∑i=1nδifi(x,y)) \Rightarrow \frac{Z_{w+\delta}(x)}{Z_{w}(x)}=\frac{1}{Z_{w}(x)}\cdot \sum_{y}\exp\left (\sum_{i=1}^{n}(w_{i}+\delta_{i})f_{i}(x,y)\right )\\ =\frac {1}{Z_{w}(x)}\cdot\sum_{y}\exp\left (\sum_{i=1}^{n}w_{i}f_{i}(x,y)+\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)\right )\\ =\frac{1}{Z_{w}(x)}\sum_{y}\exp\left (\sum_{i=1}^{n}w_{i}f_{i}(x,y)\right )\exp\left (\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)\right )\\ =\sum_{y}\frac{1}{Z_{w}(x)}\exp\left (\sum_{i=1}^{n}w_{i}f_{i}(x,y)\right )\exp\left (\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)\right )\\ =\sum_{y}p_{w}(y|x)\cdot \exp\left (\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)\right ) Zw(x)Zw+δ(x)=Zw(x)1yexp(i=1n(wi+δi)fi(x,y))=Zw(x)1yexp(i=1nwifi(x,y)+i=1nδifi(x,y))=Zw(x)1yexp(i=1nwifi(x,y))exp(i=1nδifi(x,y))=yZw(x)1exp(i=1nwifi(x,y))exp(i=1nδifi(x,y))=ypw(yx)exp(i=1nδifi(x,y))
将上述式子代入 Ψ(w+δ)−Ψ(w)\Psi(w+\delta)-\Psi(w)Ψ(w+δ)Ψ(w)
⇒Ψ(w+δ)−Ψ(w)≥∑x,yp~(x,y)∑i=1nδifi(x,y)+1−∑xp~(x)∑ypw(y∣x)exp⁡(∑i=1nδifi(x,y))\Rightarrow\Psi(w+\delta)-\Psi(w)\geq\sum_{x,y}\tilde{p}(x,y)\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)+1-\sum_{x}\tilde{p}(x)\sum_{y}p_{w}(y|x)\exp\left (\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)\right )Ψ(w+δ)Ψ(w)x,yp~(x,y)i=1nδifi(x,y)+1xp~(x)ypw(yx)exp(i=1nδifi(x,y))

将不等式右端记为(5)A(δ∣w)=∑x,yp~(x,y)∑i=1nδifi(x,y)+1−∑xp~(x)∑ypw(y∣x)exp⁡(∑i=1nδifi(x,y))A(\delta|w)=\sum_{x,y}\tilde{p}(x,y)\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)+1-\sum_{x}\tilde{p}(x)\sum_{y}p_{w}(y|x)\exp\left (\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)\right )\tag{5}A(δw)=x,yp~(x,y)i=1nδifi(x,y)+1xp~(x)ypw(yx)exp(i=1nδifi(x,y))(5)
于是
⇒Ψ(w+δ)−Ψ(w)≥A(δ∣w) \Rightarrow\Psi(w+\delta)-\Psi(w)\geq A(\delta|w) Ψ(w+δ)Ψ(w)A(δw)
A(δ∣w)A(\delta|w)A(δw) 是对数似然函数改变量的一个下界。

第二步

现目标是:找到适当的 δ\deltaδ ,使得下界 A(δ∣w)A(\delta|w)A(δw) 提高,则似然函数也会提高,但 A(δ∣w)A(\delta|w)A(δw) 是一个nnn维向量,不易于同时优化,IIS 试图一次优化其中一个 δi\delta_{i}δi ,而固定其它 δj\delta_{j}δj 不变,i≠ji\neq ji̸=j

注意:
这里的目的就是最大化两次迭代之间的差值。
1.差值的最大值如果小于 0,说明这时已经达到了最大值,在当前位置向任何方向走,对数似然函数都会变小,而我们要求的是极大似然函数,所以已经达到最大的似然函数了,此时的参数即为我们所求的参数。
2.差值如果大于 0,那么我们现在就是要最大化这个差值,这里得到了差值的下界 A(δ∣w)A(\delta|w)A(δw) ,可以通过不断地最大化此下界,从而得到最大的差值,而最大化下界的方法是:首先对 A(δ∣w)A(\delta|w)A(δw) 求关于 δi\delta_{i}δi 的偏导数,并令其为 0,但看这个求出的偏导数:
∂(A(δ∣w))∂δi=∑x,yp~(x,y)fi(x,y)−∑xp~(x)∑ypw(y∣x)exp⁡(∑i=1nδifi(x,y))fi(x,y) \frac{\partial (A(\delta|w))}{\partial \delta_{i}}=\sum_{x,y}\tilde{p}(x,y)f_{i}(x,y)-\sum_{x}\tilde{p}(x)\sum_{y}p_{w}(y|x)\exp\left(\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)\right)f_{i}(x,y) δi(A(δw))=x,yp~(x,y)fi(x,y)xp~(x)ypw(yx)exp(i=1nδifi(x,y))fi(x,y)
里面含有多个变量,不易同时优化。

因此为达到这一目的并进一步降低下界 A(δ∣w)A(\delta|w)A(δw) ,IIS 引进一个新的量:
f#(x,y)=∑ifi(x,y)f^{\#}(x,y)=\sum_{i}f_{i}(x,y)f#(x,y)=ifi(x,y)
因为 fi(x,y)f_{i}(x,y)fi(x,y) 是一个二值函数,所以 f#(x,y)f^{\#}(x,y)f#(x,y) 表示所有特征在 (x,y)(x,y)(x,y) 出现的次数。
所以(5)式可改写为:
⇒A(δ∣w)=∑x,yp~(x,y)∑i=1nδifi(x,y)+1−∑xp~(x)∑ypw(y∣x)exp⁡(f#(x,y)∑i=1nδifi(x,y)f#(x,y)) \Rightarrow A(\delta|w)=\sum_{x,y}\tilde{p}(x,y)\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)+1-\sum_{x}\tilde{p}(x)\sum_{y}p_{w}(y|x)\exp\left (f^{\#}(x,y)\sum_{i=1}^{n}\frac {\delta_{i}f_{i}(x,y)}{f^{\#}(x,y)} \right ) A(δw)=x,yp~(x,y)i=1nδifi(x,y)+1xp~(xypw(yx)exp(f#(x,y)i=1nf#(x,y)δifi(x,y))
利用指数函数的凸函数性质,及对任意 iii,有 fi(x,y)f#(x,y)≥0\frac{f_{i}(x,y)}{f^{\#}(x,y)}\geq 0f#(x,y)fi(x,y)0∑i=1nfi(x,y)f#(x,y)=1\sum_{i=1}^{n}\frac{f_{i}(x,y)}{f^{\#}(x,y)}=1i=1nf#(x,y)fi(x,y)=1,利用詹森不等式:
exp⁡(∑xp(x)q(x))≤∑xp(x)exp⁡q(x) \exp\left(\sum_{x}p(x)q(x)\right)\leq\sum_{x}p(x)\exp q(x) exp(xp(x)q(x))xp(x)expq(x)
p(x)=fi(x,y)f#(x,y)p(x)=\frac{f_{i}(x,y)}{f^{\#}(x,y)}p(x)=f#(x,y)fi(x,y),q(x)=δif#(x,y)q(x)=\delta_{i}f^{\#}(x,y)q(x)=δif#(x,y)
(6)⇒A(δ∣w)=∑x,yp~(x,y)∑i=1nδifi(x,y)+1−∑xp~(x)∑ypw(y∣x)exp⁡(∑i=1nδifi(x,y)f#(x,y)f#(x,y))≥∑x,yp~(x,y)∑i=1nδifi(x,y)+1−∑xp~(x)∑ypw(y∣x)∑i=1n(fi(x,y)f#(x,y))exp⁡(δif#(x,y)) \Rightarrow A(\delta|w)=\sum_{x,y}\tilde{p}(x,y)\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)+1-\sum_{x} \tilde{p}(x)\sum_{y}p_{w}(y|x)\exp \left (\sum_{i=1}^{n}\frac{\delta_{i}f_{i}(x,y)f^{\#}(x,y)}{f^{\#}(x,y)}\right)\tag{6} \\ \geq\sum_{x,y}\tilde{p}(x,y)\sum_{i=1}^{n}\delta_{i}f_{i}(x,y)+1-\sum_{x}\tilde{p}(x)\sum_{y}p_{w}(y|x)\sum_{i=1}^{n}\left(\frac{f_{i}(x,y)}{f^{\#}(x,y)}\right)\exp({\delta_{i}f^{\#}(x,y)}) A(δw)=x,yp~(x,y)i=1nδifi(x,y)+1xp~(x)ypw(yx)exp(i=1nf#(x,y)δifi(x,y)f#(x,y))x,yp~(x,y)i=1nδifi(x,y)+1xp~(x)ypw(yx)i=1n(f#(x,y)fi(x,y))exp(δif#(x,y))(6)
将上述不等式右边记为 B(δ∣w)B(\delta|w)B(δw) ,则:Ψ(w+δ)−Ψ(w)≥B(δ∣w)\Psi(w+\delta)-\Psi(w)\geq B(\delta|w)Ψ(w+δ)Ψ(w)B(δw)
这里,B(δ∣w)B(\delta|w)B(δw) 是对数似然函数改变量的一个新的下界。

第三步

对于新下界 B(δ∣w)B(\delta|w)B(δw),对 δi\delta_{i}δi 求偏导得(注意:这里是对一项 δi\delta_{i}δi 求偏导,而非所有 δ\deltaδ
∂(B(δ∣w))∂δi=∑x,yp~(x,y)fi(x,y)−∑xp~(x)∑ypw(y∣x)fi(x,y)exp⁡(δif#(x,y)) \frac{\partial (B(\delta|w))}{\partial \delta_{i}}=\sum_{x,y}\tilde{p}(x,y)f_{i}(x,y)-\sum_{x}\tilde{p}(x)\sum_{y}p_{w}(y|x)f_{i}(x,y)\exp(\delta_{i}f^{\#}(x,y)) δi(B(δw))=x,yp~(x,y)fi(x,y)xp~(x)ypw(yx)fi(x,y)exp(δif#(x,y))
其中,(∑i=1n(fi(x,y)f#(x,y))exp⁡(δif#(x,y)))δi′=(∑a⋅eδib)δi′=ab⋅eδibfi(x,y)f#(x,y) ⋅f#(x,y)⋅exp⁡(δif#(x,y))\left(\sum_{i=1}^{n}(\frac {f_{i}(x,y)}{f^{\#}(x,y)})\exp(\delta_{i}f^{\#}(x,y))\right)_{\delta_{i}}^{'}\overset{(\sum a\cdot e^{\delta_{i}b})_{\delta_{i}}^{'}=a b\cdot e^{\delta_{i}b}}{=}\frac{f_{i}(x,y)}{f^{\#}(x,y)~}\cdot f^{\#}(x,y)\cdot \exp(\delta_{i}f^{\#}(x,y))(i=1n(f#(x,y)fi(x,y))exp(δif#(x,y)))δi=(aeδib)δi=abeδibf#(x,y) fi(x,y)f#(x,y)exp(δif#(x,y))

这里,偏导数 ∂(B(δ∣w))∂δi\frac{\partial (B(\delta|w))}{\partial \delta_{i}}δi(B(δw)) 中除 δi\delta_{i}δi 以外,不含任何其他变量,令 ∂(B(δ∣w))∂δi=0\frac{\partial (B(\delta|w))}{\partial \delta_{i}}=0δi(B(δw))=0
(7)⇒∑xp~(x)∑ypw(y∣x)fi(x,y)exp⁡(δif#(x,y))=∑x,yp~(x,y)fi(x,y)⇒∑x,yp~(x)pw(y∣x)fi(x,y)exp⁡(δif#(x,y))=Ep~(fi) \Rightarrow\sum_{x}\tilde{p}(x)\sum_{y}p_{w}(y|x)f_{i}(x,y)\exp(\delta_{i}f^{\#}(x,y))=\sum_{x,y}\tilde{p}(x,y)f_{i}(x,y)\\ \Rightarrow \sum_{x,y}\tilde{p}(x)p_{w}(y|x)f_{i}(x,y)\exp(\delta_{i}f^{\#}(x,y))=E_{\tilde{p}}(f_{i})\tag{7} xp~(x)ypw(yx)fi(x,y)exp(δif#(x,y))=x,yp~(x,y)fi(x,y)x,yp~(x)pw(yx)fi(x,y)exp(δif#(x,y))=Ep~(fi)(7)
依次对 δi\delta_{i}δi 求解方程(7),从而求出 δ\deltaδ ,这样就可以 W∗=(w1,w2,...,wn)W^{*}=(w_{1},w_{2},...,w_{n})W=(w1,w2,...,wn) 的值进行更新了。


算法描述

改进的迭代尺度算法IIS

输入:特征函数 f1,f2,..,fnf_{1},f_{2},..,{f_{n}}f1,f2,..,fn;经验分布函数 p~(X,Y)\tilde{p}(X,Y)p~(X,Y),模型 Pw(y∣x)P_{w}(y|x)Pw(yx)
输出:最优参数值 w∗w^{*}w;最优模型 Pw∗P_{w^{*}}Pw

(1)对所有 i∈{1,2,...,n}i \in \left \{ 1,2,...,n\right \}i{1,2,...,n},取初值 wi=0w_{i}=0wi=0
(2)对每一个 i∈{1,2,...,n}i \in \left \{ 1,2,...,n\right \}i{1,2,...,n}

  • (a)令 δi\delta_{i}δi 是方程 ∑x,yp~(x)pw(y∣x)fi(x,y)exp⁡(δif#(x,y))=Ep~(fi)\sum_{x,y}\tilde{p}(x)p_{w}(y|x)f_{i}(x,y)\exp(\delta_{i}f^{\#}(x,y))=E_{\tilde{p}}(f_{i})x,yp~(x)pw(yx)fi(x,y)exp(δif#(x,y))=Ep~(fi) 的解,这里,f#(x,y)=∑if(x,y)f^{\#}(x,y)=\sum_{i}f_{}(x,y)f#(x,y)=if(x,y)
  • (b)更新 wiw_{i}wi 值:wi→wi+δiw_{i}\rightarrow w_{i}+\delta_{i}wiwi+δi

(3)如果不是所有的 wiw_{i}wi 都收敛,重复(2)。

这一算法关键是(a),即求解方程(7)中的 δi\delta_{i}δi
如果 f#(x,y)f^{\#}(x,y)f#(x,y) 是常数,即对任何 x,yx,yx,yf#(x,y)=Mf^{\#}(x,y)=Mf#(x,y)=M,那么 δi\delta_{i}δi 可以显示地表示成δi=1Mlog⁡Ep~(fi)Ep(fi)\delta_{i}=\frac{1}{M}\log\frac{E_{\tilde{p}}(f_{i})}{E_{p}(f_{i})}δi=M1logEp(fi)Ep~(fi)
如果 f#(x,y)f^{\#}(x,y)f#(x,y) 不是常数,那么必须通过数值计算求 δi\delta_{i}δi
(注意:这里 f#f^{\#}f#fff 的加权和,为什么f#f^{\#}f#可能不为常数呢?因为离线训练中是常数,在线训练(增量式训练样本)中就不是常数。)

简单有效的方法是:牛顿法。以 g(δi)=0g(\delta_{i})=0g(δi)=0 表示方程(7),牛顿法通过迭代求得 δi∗\delta_{i}^{*}δi ,使得 g(δi∗)=0g(\delta_{i}^{*})=0g(δi)=0
迭代公式为:
δi(k+1)=δi(k)−g(δi(k))g′(δi(k)) \delta_{i}^{({k+1})}=\delta_{i}^{(k)}-\frac{g(\delta_{i}^{(k)})}{g^{'}(\delta_{i}^{(k)})} δi(k+1)=δi(k)g(δi(k))g(δi(k))
只要适当选取初始值 δi(0)\delta_{i}^{(0)}δi(0) ,由于 δi\delta_{i}δi 的方程(7)有单根,因此牛顿法恒收敛,而且收敛的速度很快。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值