目录
EM算法
EM算法是一种迭代算法,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。
其过程主要分为两步:
- E步,求期望
- M步,求极大
因此,又被称为期望极大化算法。
EM算法根据算法不同的初值可能会有不同的参数估计值。
EM算法的导出:
对一个含有隐变量的概率模型,目标时极大化观测数据(不完全数据)Y 关于参数 的对数似然函数,即极大化:
EM算法通过迭代逐步近似极大化 L(θ) 假设在第 i 次迭代后 θ 的估计值为 ,希望新的估计值 θ 能使 L(θ) 增加,即 L(θ)>L(
),并逐步达到极大值。因此考虑两者的差:

EM算法

EM算法的收敛性包含关于对数似然函数序列 L() 的收敛性和关于参数估计序列
的收敛性两层意

本文介绍了统计学习中的关键模型,包括EM算法、朴素贝叶斯模型、图规划模型、隐马尔可夫模型及条件随机场等。重点讲解了EM算法的工作原理及其在不同模型中的应用,探讨了朴素贝叶斯模型在分类任务中的表现,并详细分析了隐马尔可夫模型与条件随机场在序列标注问题上的应用。
最低0.47元/天 解锁文章
812

被折叠的 条评论
为什么被折叠?



