【阅读笔记】EM算法

本文围绕《统计学习方法》第9章的EM算法展开。介绍其是用于含隐变量概率模型参数估计的迭代算法,阐述基本步骤、导出过程,指出对初值敏感且不能保证全局最优解,证明了收敛性,还给出高斯混合模型参数估计的步骤,最后介绍了其变形GEM算法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

《统计学习方法》第9章 EM算法及其推广
EM是一种迭代算法,用于含有隐变量的概率模型参数的极大似然估计/极大后验概率估计

基本步骤

  1. 初始化参数θ\thetaθ
  2. E步:计算期望,也就是Q函数(完全数据的对数似然函数关于在给定观测数据和当前参数下对隐变量的条件概率分布的期望,其中完全数据=观测数据+隐变量)
  3. M步:求使Q函数极大化的参数θ\thetaθ
  4. 重复步骤2和步骤3,直至收敛

EM算法的导出(=Q函数的导出)

EM算法可以看作是不断求解下界的极大化逼近求解对数似然函数极大化的算法

  1. 面对含隐变量的概率模型,目标是极大化观测数据关于模型参数的对数似然L(θ)L(\theta)L(θ)
  2. 困难:L(θ)L(\theta)L(θ)含有隐变量Z、包含和的对数
  3. 考虑L(θ)L(\theta)L(θ)L(θi)L(\theta^i)L(θi)的差,利用jensen不等式进行缩放
  4. B((θ,θi)B((\theta,\theta^i)B((θ,θi)=L(θi)L(\theta^i)L(θi)+缩放后的差,可推导出令B((θ,θi)B((\theta,\theta^i)B((θ,θi)增大的θ\thetaθ就可令L(θ)L(\theta)L(θ)增大,因此原问题转化为极大化B((θ,θi)B((\theta,\theta^i)B((θ,θi)
  5. 去除B((θ,θi)B((\theta,\theta^i)B((θ,θi)中的常数项后获得Q函数

关于EM算法对几点说明

  1. 对初值敏感
  2. 不能保证找到全局最优解

EM算法的收敛性

  • 基于Q函数的单调递增和jensen不等式证明似然函数单调递增

高斯混合模型参数估计的EM算法

  • 推导计算完成后的步骤:
  1. 初始化
  2. E步:依据当前模型参数,计算分模型k对观测数据y的响应度γjk\gamma_{jk}γjk
  3. M步:根据偏导为0的计算公式,计算新一轮迭代的模型参数
  4. 重复步骤2和步骤3,直至收敛

EM算法的变形—GEM算法

  • EM算法可以解释为F函数的极大(P)-极大(theta)算法
  • GEM算法的特点是每次迭代增加F函数值(并不一定是极大化F函数(相当于极大化Q函数),因为有时极大化Q函数比较困难),从而增加似然函数值
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值