机器学习笔记_$EM$算法

本文详细介绍了EM算法的工作原理及其在处理含有隐变量的数据集时的应用。通过迭代的方式,EM算法能够逐步逼近参数的最大似然估计。

适用范围

假设训练样本的属性变量是不完整的

隐变量

XX表示已经观测的变量集合,ZZ表示隐变量集,ΘΘ表示模型参数.如果对ΘΘ做最大似然估计,则应当最大化对数似然

LL(ΘX,Z)=lnP(X,ZΘ)LL(Θ∣X,Z)=ln⁡P(X,Z∣Θ)

然而由于ZZ是隐藏变量,上式无法直接求解。此时我们可以通过对Z计算期望,来最大化已观测数据的对数“边际似然”(marginal likelihood)
LL(ΘX)=lnP(XΘ)=lnZP(X,ZΘ)(A)(A)LL(Θ∣X)=ln⁡P(X∣Θ)=ln⁡∑ZP(X,Z∣Θ)

EM(Expectation_Maximization)算法

EM是常用的估计参数隐藏变量的利器,它是一种迭代式方法,其基本思想是:若参数ΘΘ已知,则可以对训练数据集推断出最优隐变量ZZ的值(E步);反之,若ZZ的值已知,则可以方便对参数Θ做极大似然估计(MM步)。
于是,以初始值Θ0为起点,对(AA),可以迭代执行以下步骤直至收敛:

  • 基于Θt推断隐变量ZZ的期望,记做ZtZt
    • 基于已观测变量XXZtZt对参数ΘΘ做极大似然估计,记做Θt+1Θt+1

      EM算法的步骤

      E步

      以当前参数ΘtΘt推断隐变量分布P(ZX,Θt)P(Z∣X,Θt),并计算对数似然LL(ΘX,Z)LL(Θ∣X,Z)关于ZZ的期望

      Q(ΘΘt)=EZX,ΘtLL(ΘX,Z)Q(Θ∣Θt)=EZ∣X,ΘtLL(Θ∣X,Z)

    M步

    寻找参数最大化的期望似然,即

    Θt+1=argminΘQ(ΘΘt)Θt+1=arg⁡minΘ⁡Q(Θ∣Θt)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值