机器学习-EM算法

EM算法是求解带隐藏因子的概率模型的极大似然估计方法,通过杰森不等式简化复杂问题。其步骤包括确定是否含有隐藏变量、转化对数似然函数并找到下边界,然后最大化下边界似然函数以更新参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. EM算法

  • 1.1 作用
    EM算法是用来求解带隐藏因子的概率模型的极大似然估计,通过杰森不等式将包含求和的对数似然函数转化为乘积形式,从而得到一个简便表达式。如果不采用EM算法,则此类问题只能采用梯度上升法等迭代法求解,比较麻烦

  • 1.2 具体步骤
    (1)注意是否包含未能观测到的隐藏变量,若无,则可以将概率模型表示为完全形式的联合概率分布(如高斯判别分析),接下来可以使用常规的极大似然估计求解参数;若包含,则将概率模型表示为求和形式的p(x;θ)p(x;\theta)p(x;θ),使用EM算法求解参数
    (2)通过杰森不等式f(E[X])≥E[f(X)](f为凹函数)f(E[X])\geq E[f(X)](f为凹函数)f(E[X])E[f(X)](f),将求和形式的对数似然函数转化为连乘形式,得到下边界似然函数J(θ)J(\theta)J(θ)

    一般求和形式的对数似然函数为
    p(x,z;θ)=∑i=1mlog⁡p(x;θ)=∑i=1mlog⁡∑j=1kp(z(i)=j)p(x(i)∣z(i)=j;θ)p(x,z;\theta)=\sum_{i=1}^m\log p(x;\theta)=\sum_{i=1}^m\log \sum_{j=1}^kp(z^{(i)}=j)p(x^{(i)}|z^{(i)}=j;\theta)p(x,z;θ)=i=1mlogp(x;θ)=i=1mlog

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值