EM算法的导出、收敛性证明

本文详细解析了EM算法的工作原理及其数学推导过程,包括算法的导出和收敛性的证明,适合对EM算法感兴趣的读者。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先,把使用的符号声明一下。
Y:观测变量各分量iid,即P(Y)=P(y1,y2,...,yN)=∏i=1NP(yi)Y:观测变量 \quad 各分量iid,即P(Y)=P(y_1,y_2,...,y_N)=\prod_{i=1}^{N}P(y_i)Y:iidP(Y)=P(y1,y2,...,yN=i=1NP(yi)
Z:隐变量Z:隐变量Z:
Θ:参数\Theta :参数Θ:
(Y,Z):完全数据(Y,Z):完全数据(Y,Z):

我们知道,EM算法的迭代公式为Θt+1=argmaxΘ∫ZP(Z∣Y,Θt)logP(Y,Z∣Θ)dZ\Theta^{t+1}=argmax_\Theta\int_{Z}P(Z|Y,\Theta^{t})logP(Y,Z|\Theta)dZΘt+1=argmaxΘZP(ZY,Θt)logP(Y,ZΘ)dZ,现在依次推导其导出及收敛性。

1.导出

使用最大似然推导,我们的目的是使得logP(Y∣Θ)logP(Y|\Theta)logP(YΘ)最大,故从这个角度出发。
logP(Y∣Θ)=logP(Y,Z∣Θ)−logP(Z∣Y,Θ)引入Q(Z)≠0=logP(Y,Z∣Θ)Q(Z)−logP(Z∣Y,Θ)Q(Z) \begin{aligned} logP(Y|\Theta) & =logP(Y,Z|\Theta) - logP(Z|Y,\Theta) \\ 引入Q(Z)\neq0\qquad \qquad \qquad & = log\frac{P(Y,Z|\Theta)}{Q(Z)} - log\frac{P(Z|Y,\Theta)}{Q(Z)} \end{aligned} logP(YΘ)Q(Z)=0=logP(Y,ZΘ)logP(ZY,Θ)=logQ(Z)P(Y,ZΘ)logQ(Z)P(ZY,Θ)
两边对Q(Z)Q(Z)Q(Z)求期望:
左边=∫ZQ(Z)logP(Y∣Θ)dZ=logP(Y∣Θ)∫ZQ(Z)dZ=logP(Y∣Θ)⋅1=logP(Y∣Θ)右边=∫ZQ(Z)logP(Y,Z∣Θ)Q(Z)dZ−∫ZQ(Z)logP(Z∣Y,Θ)Q(Z)dZ=ELBO+KL(Q(Z)∣∣P(Z∣Y,Θ)) \begin{aligned} 左边 &=\int_{Z}Q(Z)logP(Y|\Theta)dZ\\ &=logP(Y|\Theta)\int_{Z}Q(Z)dZ\\ &=logP(Y|\Theta)\cdot1\\ &=logP(Y|\Theta)\\ 右边 &=\int_{Z}Q(Z)log\frac{P(Y,Z|\Theta)}{Q(Z)} dZ - \int_{Z}Q(Z)log\frac{P(Z|Y,\Theta)}{Q(Z)} dZ\\ &=ELBO + KL(Q(Z)||P(Z|Y,\Theta)) \end{aligned} =ZQ(Z)logP(YΘ)dZ=logP(YΘ)ZQ(Z)dZ=logP(YΘ)1=logP(YΘ)=ZQ(Z)logQ(Z)P(Y,ZΘ)dZZQ(Z)logQ(Z)P(ZY,Θ)dZ=ELBO+KL(Q(Z)P(ZY,Θ))
右边的ELBOELBOELBO(Evidence lower bound)是似然 logP(Y∣Θ)logP(Y|\Theta)logP(YΘ)的一个下界,因为KL(Q(Z)∣∣P(Z∣Y,Θ)≥0KL(Q(Z)||P(Z|Y,\Theta)\geq0KL(Q(Z)P(ZY,Θ)0,故logP(Y∣Θ)≥ELBOlogP(Y|\Theta)\geq ELBOlogP(YΘ)ELBO(当KL(Q(Z)∣∣P(Z∣Y,Θ)=0KL(Q(Z)||P(Z|Y,\Theta)=0KL(Q(Z)P(ZY,Θ)=0时取等号)。因此,最大化似然的过程可以转化为最大化ELBOELBOELBO的过程。现在回到开头,我们导出Θt+1=argmaxΘ∫ZP(Z∣Y,Θt)logP(Y,Z∣Θ)dZ\Theta^{t+1}=argmax_\Theta\int_{Z}P(Z|Y,\Theta^{t})logP(Y,Z|\Theta)dZΘt+1=argmaxΘZP(ZY,Θt)logP(Y,ZΘ)dZ,即在已知Θt\Theta^{t}Θt推导Θt+1\Theta^{t+1}Θt+1,此时Q(Z)=P(Z∣Y,Θt)Q(Z)=P(Z|Y,\Theta^{t})Q(Z)=P(ZY,Θt),则在第t+1步最大化似然等价于最大化ELBOELBOELBO
Θt+1=argmaxΘlogP(Y∣Θ)=argmaxΘELBO=argmaxΘ∫ZQ(Z)logP(Y,Z∣Θ)Q(Z)dZ=argmaxΘ∫ZP(Z∣Y,Θt)logP(Y,Z∣Θ)P(Z∣Y,Θt)dZ=argmaxΘ∫ZP(Z∣Y,Θt)logP(Y,Z∣Θ)dZ−∫ZP(Z∣Y,Θt)logP(Z∣Y,Θt)dZ=argmaxΘ∫ZP(Z∣Y,Θt)logP(Y,Z∣Θ)dZ \begin{aligned} \Theta^{t+1} &=argmax_\Theta logP(Y|\Theta)\\ &=argmax_\Theta ELBO\\ &=argmax_\Theta \int_{Z}Q(Z)log\frac{P(Y,Z|\Theta)}{Q(Z)} dZ\\ &=argmax_\Theta \int_{Z}P(Z|Y,\Theta^{t})log\frac{P(Y,Z|\Theta)}{P(Z|Y,\Theta^{t})} dZ\\ &=argmax_\Theta \int_{Z}P(Z|Y,\Theta^{t})logP(Y,Z|\Theta) dZ - \int_{Z}P(Z|Y,\Theta^{t})logP(Z|Y,\Theta^{t}) dZ\\ &=argmax_\Theta \int_{Z}P(Z|Y,\Theta^{t})logP(Y,Z|\Theta) dZ \end{aligned} Θt+1=argmaxΘlogP(YΘ)=argmaxΘELBO=argmaxΘZQ(Z)logQ(Z)P(Y,ZΘ)dZ=argmaxΘZP(ZY,Θt)logP(ZY,Θt)P(Y,ZΘ)dZ=argmaxΘZP(ZY,Θt)logP(Y,ZΘ)dZZP(ZY,Θt)logP(ZY,Θt)dZ=argmaxΘZP(ZY,Θt)logP(Y,ZΘ)dZ
此处解释一下上面公式的最后一步等号是怎么得来的,因为后面那项的Θt\Theta^{t}Θt是已知的,即与Θ\ThetaΘ无关,故在求关于Θ\ThetaΘ的极大时,它求导后为0。至此,EM算法的导出得证。当然,还可以使用Jesen不等式的方法。

2.收敛性证明

所谓收敛性证明,即证明logP(Y∣Θ)logP(Y|\Theta)logP(YΘ)是递增的,从而它可以在迭代过程中取得极大值。首先,同样地把对数似然写开。
logP(Y∣Θ)=logP(Y,Z∣Θ)−logP(Z∣Y,Θ)logP(Y|\Theta) =logP(Y,Z|\Theta) - logP(Z|Y,\Theta)logP(YΘ)=logP(Y,ZΘ)logP(ZY,Θ)
两边对P(Z∣Y,Θt)P(Z|Y,\Theta^{t})P(ZY,Θt)求期望:
左边=∫ZP(Z∣Y,Θt)logP(Y∣Θ)dZ=logP(Y∣Θ)右边=∫ZP(Z∣Y,Θt)logP(Y,Z∣Θ)dZ−∫ZP(Z∣Y,Θt)logP(Z∣Y,Θ)dZ=Q(Θ,Θt)−H(Θ,Θt)则证明似然函数递增等价于证明[Q(Θt+1,Θt)−H(Θt+1,Θt)]−[Q(Θt,Θt)−H(Θt,Θt)]≥0,首先,Q(Θt+1,Θt)−Q(Θt,Θt)≥0是显然的,因为Θt+1=argmaxΘQ(Θ,Θt),现在即需证H(Θt,Θt)−H(Θt+1,Θt)≥0.H(Θt,Θt)−H(Θt+1,Θt)=∫ZP(Z∣Y,Θt)logP(Z∣Y,Θt)P(Z∣Y,Θt+1)dZ=KL(P(Z∣Y,Θt)∣∣P(Z∣Y,Θt+1))≥0 \begin{aligned} 左边&=\int_{Z}P(Z|Y,\Theta^{t})logP(Y|\Theta)dZ\\ &=logP(Y|\Theta)\\ 右边&=\int_{Z}P(Z|Y,\Theta^{t})logP(Y,Z|\Theta) dZ-\int_{Z}P(Z|Y,\Theta^{t})logP(Z|Y,\Theta) dZ\\ &=Q(\Theta,\Theta^{t}) - H(\Theta,\Theta^{t}) \end{aligned} \\ 则证明似然函数递增等价于证明[Q(\Theta^{t+1},\Theta^{t}) - H(\Theta^{t+1},\Theta^{t})]-[Q(\Theta^{t},\Theta^{t}) - H(\Theta^{t},\Theta^{t})]\geq0,\\ 首先,Q(\Theta^{t+1},\Theta^{t})-Q(\Theta^{t},\Theta^{t})\geq0是显然的,因为\Theta^{t+1}=argmax_\Theta Q(\Theta,\Theta^{t}),现在即需 证\quad\\H(\Theta^{t},\Theta^{t})-H(\Theta^{t+1},\Theta^{t})\geq0.\\ \begin{aligned} H(\Theta^{t},\Theta^{t})-H(\Theta^{t+1},\Theta^{t}) &=\int_{Z}P(Z|Y,\Theta^{t})log\frac{P(Z|Y,\Theta^{t})}{P(Z|Y,\Theta^{t+1})} dZ\\ &=KL(P(Z|Y,\Theta^{t})||P(Z|Y,\Theta^{t+1}))\\ &\geq0 \end{aligned} =ZP(ZY,Θt)logP(YΘ)dZ=logP(YΘ)=ZP(ZY,Θt)logP(Y,ZΘ)dZZP(ZY,Θt)logP(ZY,Θ)dZ=Q(Θ,Θt)H(Θ,Θt)[Q(Θt+1,Θt)H(Θt+1,Θt)][Q(Θt,Θt)H(Θt,Θt)]0Q(Θt+1,Θt)Q(Θt,Θt)0Θt+1=argmaxΘQ(Θ,Θt)H(Θt,Θt)H(Θt+1,Θt)0.H(Θt,Θt)H(Θt+1,Θt)=ZP(ZY,Θt)logP(ZY,Θt+1)P(ZY,Θt)dZ=KL(P(ZY,Θt)P(ZY,Θt+1))0
上述后面的H(Θt,Θt)−H(Θt+1,Θt)≥0H(\Theta^{t},\Theta^{t})-H(\Theta^{t+1},\Theta^{t})\geq0H(Θt,Θt)H(Θt+1,Θt)0也可以使用Jesen不等式证明,此处略。至此,收敛性得证。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值