HMM是一种生成模型.描述了隐含的马尔科夫链随机生成观测序列的过程.
所以HMM=隐含的马尔科夫链->随机生成的观测序列.
更具体的说,HMM=隐含的马尔科夫链->随机生成状态序列->随机生成观测序列
基本概念
定义
λ=(A,B,π)
我理解,状态序列和观测序列都是离散可枚举的.
感觉中间也有隐变量.那它和EM算法可以找到什么区别呢?其中一个是,HMM是和顺序有关的,EM算法和顺序基本无关.
HMM的3个基本问题
- 概率计算问题
- 学习问题
- 预测问题.语音识别就是这个问题.
这三个问题哪个简单哪个容易呢
概率学习问题
已知λ=(A,B,π)和观测序列O=(o1,o2,...,oT),计算O出现的概率
暴力计算法
观察我们要求的问题P(O|λ),可以拆分成P(O,I|λ),然后对I求和.这种方式需要枚举出所有可能的隐含序列.
P(O,I|λ)=πai1i2oai2i3...aiT−1iT
这个复杂度是O(Tk)