李航统计学习总结:EM算法、朴素贝叶斯、隐马尔可夫、随机向量场

本文介绍了统计学习中的关键模型,包括EM算法、朴素贝叶斯模型、图规划模型、隐马尔可夫模型及条件随机场等。重点讲解了EM算法的工作原理及其在不同模型中的应用,探讨了朴素贝叶斯模型在分类任务中的表现,并详细分析了隐马尔可夫模型与条件随机场在序列标注问题上的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

EM算法

朴素贝叶斯模型

图规划模型

隐马尔可夫模型

条件随机场(CRF)


\large EM algorithm\Rightarrow \begin{Bmatrix} naive Bayes\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\\ graphical model \begin{Bmatrix} HMM\\ CRF \end{matrix} \end{matrix}


EM算法

EM算法是一种迭代算法,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。

其过程主要分为两步:

  • E步,求期望
  • M步,求极大

因此,又被称为期望极大化算法。

EM算法根据算法不同的初值可能会有不同的参数估计值。

EM算法的导出:

对一个含有隐变量的概率模型,目标时极大化观测数据(不完全数据)Y 关于参数 \large \theta 的对数似然函数,即极大化:

                                       \large L(\theta) = \logP(Y|\theta) = \log{\sum_ZP(Y,Z|\theta)}=\log\left ( \sum _ZP(Y|Z,\theta)P(Z|\theta) \right )

EM算法通过迭代逐步近似极大化 L(θ) 假设在第 i 次迭代后 θ 的估计值为 \large \theta^{(i)} ,希望新的估计值 θ 能使  L(θ) 增加,即 L(θ)>L(\large \theta^{(i)}),并逐步达到极大值。因此考虑两者的差:
\large L(\theta)-L(\theta^{(i)})=\log \left ( \sum_ZP(Y|Z,\theta)P(Z|\theta) \right )-\log P(Y|\theta^{(i)})\xrightarrow[\log\sum_j \lambda_jy_j \geq\sum_j \lambda_j \log y_j,\;\;\;where\; \lambda_j \geq0,\sum_j \lambda_j=1]{Jensen\;inequality}\\ L(\theta)-L(\theta^{(i)})=\log \left ( \sum_ZP(Z|Y,\theta^{(i)})\frac{P(Y|Z,\theta)P(Z|\theta)}{P(Z|Y,\theta^{(i)})} \right )-\log P(Y|\theta^{(i)})\\ \geq\sum_ZP(Z|Y,\theta^{(i)})\log\frac{P(Y|Z,\theta)P(Z|\theta)}{P(Z|Y,\theta^{(i)})}-\log P(Y|\theta^{(i)})\\ =\sum_ZP(Z|Y,\theta^{(i)})\log\frac{P(Y|Z,\theta)P(Z|\theta)}{P(Z|Y,\theta^{(i)})P(Y|\theta^{(i)})}

EM算法

EM算法的收敛性包含关于对数似然函数序列 L(\large \theta^{(i)}) 的收敛性和关于参数估计序列

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值