[nlp] MLE,EM,MAP 三种算法对比和理解

本文对比了MLE(最大似然估计)、EM(期望最大值估计)和MAP(最大后验概率)三种算法。MLE用于模型已定但参数未知的情况,通过似然函数求解。EM算法处理含有隐变量的情况,如HMM的 Baum-Welch算法。MAP则结合先验知识进行参数估计,常见于说话人识别的GMM-UBM系统中。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考:https://blog.youkuaiyun.com/zjm750617105/article/details/52696006

MLE(最大似然估计),EM(期望最大值估计),MAP (最大后验概率)

一、MLE
MLE是在“模型已定,参数未知”的情况下根据给定观察序列(所有序列服从同一分布)估计模型参数的估计方法。模型参数的准确性,跟观察序列直接相关。
最大似然估计(MLE)的计算过程是:
  (1) 写出似然函数(已知模型,即已知概率密度函数)
  (2) 对似然函数取对数,并整理
  (3) 求导数
  (4) 解似然方程
在这里插入图片描述
二、EM
EM 算法就是含有隐变量的MEL。 下例中的隐变量就是课程(数学 和 英语)。

抽取的成绩时,我们不知道哪些成绩是数学成绩,哪些成绩是英语成绩,,而数学和英语的成绩都满足正态分布,这时候应该怎么求这些参数呢 ?
在这里插入图片描述
这就出现了隐变量的引入,就是我直接求L(θθ |X)不好求。我必须先知道成绩是英语还是数学然后再求参数,即:
L(θ|X)=p(x|z,θ)p(z|θ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

心心喵

喵喵(*^▽^*)

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值