Chapter 09 Mixture Models and EM

Chapter 09 Mixture Models and EM


本章《PRML》主要介绍的概念是期望最大化算法(Expectation Maximization Algorithm, EM),该方法主要用于含有隐变量(latent variable)的概率模型参数的极大似然估计。混合高斯模型即是利用EM算法进行的计算。

EM


a. Expectation Maximization Algorithm

一般地,如果概率模型的变量都是观测变量(observable variable),无隐变量,那么可以直接使用极大似然估计或者贝叶斯估计,解析地求得模型的参数。但是,当含有隐变量时,以上方法就得不到解析解了,就只能够得到模型参数关于隐变量的一个函数。

通常来说,对于观测数据 X X X,参数 θ \theta θ,我们希望通过最大化对数似然函数 l o g p ( X ∣ θ ) log p(X | \theta) logp(Xθ)得到参数 θ \theta θ的估计,当有隐变量 Z Z Z时,我们希望能够最大化 l o g p ( X , Z ∣ θ ) log p(X,Z|\theta) logp(X,Zθ)。一般地,对于含隐变量的情况,我们定义 X X X为观测随机变量数据, Z Z Z表示隐随机变量数据,

  • 完全数据(complete-data): Y Y Y Z Z Z在一起;
  • 不完全数据(incomplete-data):只有观测数据 Y Y Y

EM算法求解 L ( θ ) = l o g p ( X , Z ∣ θ ) L(\theta)= log p(X,Z|\theta) L(θ)=logp(X,Zθ)主要分为两步,E步,求期望;M步,求极大化。其具体形式如下,

  • 输入:观测变量 X X X,隐变量 Z Z Z,联合分布 p ( X , Z ∣ θ ) p(X,Z|\theta) p(X,Zθ),条件分布 p ( Z ∣ X , θ ) p(Z|X,\theta) p(ZX,θ)
  • 输出:模型参数 θ \theta θ
  • 步骤:
    • 选择参数的初值 θ ( 0 ) \theta^{(0)} θ(0),开始迭代;
    • E步:记 θ ( i ) \theta^{(i)} θ(i)为第 i i i次迭代参数 θ \theta θ的估计值,在第 i + 1 i+1 i+1次迭代的 E E E步,计算
      (9.1) Q ( θ , θ ( i ) ) = E Z [ l o g p ( X , Z ∣ θ ) ∣ X , θ ( i ) ] = ∑ Z l o g p ( X , Z ∣ θ ) p ( Z ∣ X , θ ( i ) ) \begin{aligned} \mathcal{Q}(\theta,\theta^{(i)}) &= E_Z [log p(X,Z|\theta)|X,\theta^{(i)}] \\ &= \sum_Z log p(X,Z|\theta)p(Z|X,\theta^{(i)}) \end{aligned} \tag{9.1} Q(θ,θ(i))=EZ[logp(X,Zθ)X,θ(i)]=
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值