一:模型介绍和学习
隐式马尔科夫模型,是对马尔科夫链的扩展,是一个双重的随机过程,它包含一个隐藏链层S = {S1, S2, S3, ⋯ , SN}和一个可观测的链层W = {W1, W2, W3, ⋯ , WM},不可见的概率层到可见的概率曾也有一定的转移概率B,那个隐藏层的链层就是隐式马尔科夫的“隐”字来源。

HMM模型如上所示:
模型表示为:λ = (S,W,A,,B,π)
1:Start是初始状态,最初的状态。
2:红色线是初始状态到隐藏层各个状态S的转移向量π。
3:S是隐藏层的状态S = {S1, S2, S3, ⋯ , SN},隐藏状态总数是N。
4:黑色线是隐藏层之间各个状态的状态转移矩阵A,是NN维度的。
5:W是可观测层的各种输出W = {W1, W2, W3, ⋯ , WM},它的数量和隐藏状态S的数量没有联系,为了区分,我用可见状态总数用M表示。
6:蓝色线是各个隐藏层状态到可见状态的转移矩阵B,是NM维度的。
现在,假设存在某个隐藏状态序列Q=q1, q2, q3, ⋯, qT (隐藏),Q的每一时刻qt属于集合S。
以及某个观察序列O=o1, o2, o3, ⋯, oT (可见),T是序列的长度,O的每一时刻ot属于可见状态集合W。
相对于之前的马尔科夫链,隐马尔科夫模型有以下的不同之处:
观察状态与隐藏状态之间存在概率关系,转移矩阵B。
多一个假设条件,输出独立性,可见状态仅仅与当前隐藏状态有关,可见状态之间没有关联,用公式说明就是:

上面的模型都是折叠起来的,现在展开看看。

本文深入介绍了隐马尔科夫模型(HMM)的基本概念,包括其模型结构、三个经典问题——评估、识别和训练,以及解决这些问题的方法,如前向算法、维特比算法和鲍姆-韦尔奇算法。HMM广泛应用于词性标注、拼音输入法、语音识别和异常检测等领域。
最低0.47元/天 解锁文章
642

被折叠的 条评论
为什么被折叠?



