EM算法知识点整理

EM算法是一种用于含有隐变量的概率模型参数估计的方法,通过迭代求解对数似然函数的下界来逐渐逼近最大似然估计。其优点包括简单性和普适性,但对初始值敏感,可能收敛于局部最优。EM通常应用于混合高斯模型、协同过滤和k-means聚类。在k-means中,E步对应样本分配,M步更新中心点,是硬分配的特殊情况。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 自己的理解
    目标 θ̃ =argmaxθP(Y|θ)
    即我们要估计一个合理的 θ̃  使得 P(Y|θ) 达到最大值
    如果存在隐变量 Z ,我理解为Z是一个没有表现出来但是又是必要的一个中间态,那么 P(Y|θ) 可以表示为 P(Y|θ)=P(Y,Z|θ)=ZP(Y|Z,θ)P(Z|θ)
    然后想象一下迭代的过程,即从 θi θi+1 的过程,每次迭代应该是要满足 P(Y|θi+1)>P(Y|θi) ,考虑对数似然函数 L(θ)=logP(Y|θ)
    L(θ)L(θi)=logP(Y|θ)logP(Y|θi)
    =logZP(Y|Z,θ)P(Z|θ)logP(Y|θi)
    =logZP(Z|Y,θi)P(Y|Z,θ)P(Z|θ)P(Z|Y,θi)logP(Y|θi)
    由Jensen不等式 logjλjyjjλjlogyj ,其中 λj0,jλj=1 ,原式变为
    ZP(Z|Y,θi)logP(Y|Z,θ)P(Z|θ)P(Z|Y,θi)ZP(Z|Y,θi)P(Y|θi)
    =ZP(Z|Y,θi)logP(Y|Z,θ)P(Z|θ)P(Z|Y,θi)
    θi+i=argmaxθL(θi)+ZP(Z|Y,θi)logP(Y|Z,θ)P(Z|θ)P(Z|Y,θi)
    =argmaxθZP(Z|Y,θi)logP(Y|Z,θ)P(Z|θ)+ 常数项
    =argmaxθQ(θ,θi)
    EM的算法步骤可以因此分解成
    确隐变量,写出完全数据的对数似然函数(完全数据就是Z数据和Y数据,不完全数据就是只有Y数据)
    E 步:计算Q函数
    M 步:迭代估计θ

  2. 优点:简单性和普适性,可看作是一种非梯度优化方法(解决梯度下降等优化方法的缺陷:求和的项数将随 着隐变量的数目以指数级上升,会给梯度计算带来麻烦)
    缺点:对初始值敏感,不同的初值可能得到不同的参数估计值;不能保证找到全局最优值。

  3. EM求解原理:
    因为在求解一个含有隐变量的概率模型时,目标是极大化观测数据关于参数的对数似然函数,而极大化的主要困难是含有未观测数据并有包含和的对数,而EM算法是通过迭代,不断求解下界的极大化,来逐步求解对数似然函数极大化。

  4. 采用EM算法求解的模型有哪些?为什么不用牛顿法或者梯度下降法?
    一般有混合高斯、协同过滤、k-means。算法一定会收敛,但是可能会收敛到局部最优。求和的项数会随着隐变量的数目指数上升,会给梯度计算带来麻烦。EM算法是一种非梯度优化算法。

  5. 用EM算法推导解释K-means:
    k-means算法是高斯混合聚类在混合成分方差相等,且每个样本仅指派一个混合成分时候的特例。k-means算法与EM算法的关系是这样的:
    · k-means是两个步骤交替进行:确定中心点,对每个样本选择最近中心点–> E步和M步。
    · E步中将每个点选择最近的类优化目标函数,分给中心距它最近的类(硬分配),可以看成是EM算法中E步(软分配)的近似。
    · M步中更新每个类的中心点,可以认为是在「各类分布均为单位方差的高斯分布」的假设下,最大化似然值;
    来源:http://blog.youkuaiyun.com/qq_34896915/article/details/75040578

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值