NLP 《隐式马尔科夫链》

本文深入介绍了隐马尔科夫模型(HMM)的基本概念,包括其模型结构、三个经典问题——评估、识别和训练,以及解决这些问题的方法,如前向算法、维特比算法和鲍姆-韦尔奇算法。HMM广泛应用于词性标注、拼音输入法、语音识别和异常检测等领域。

一:模型介绍和学习
隐式马尔科夫模型,是对马尔科夫链的扩展,是一个双重的随机过程,它包含一个隐藏链层S = {S1, S2, S3, ⋯ , SN}和一个可观测的链层W = {W1, W2, W3, ⋯ , WM},不可见的概率层到可见的概率曾也有一定的转移概率B,那个隐藏层的链层就是隐式马尔科夫的“隐”字来源。
在这里插入图片描述

HMM模型如上所示:
模型表示为:λ = (S,W,A,,B,π)

1:Start是初始状态,最初的状态。
2:红色线是初始状态到隐藏层各个状态S的转移向量π。
3:S是隐藏层的状态S = {S1, S2, S3, ⋯ , SN},隐藏状态总数是N。
4:黑色线是隐藏层之间各个状态的状态转移矩阵A,是NN维度的。
5:W是可观测层的各种输出W = {W1, W2, W3, ⋯ , WM},它的数量和隐藏状态S的数量没有联系,为了区分,我用可见状态总数用M表示。
6:蓝色线是各个隐藏层状态到可见状态的转移矩阵B,是N
M维度的。

现在,假设存在某个隐藏状态序列Q=q1, q2, q3, ⋯, qT (隐藏),Q的每一时刻qt属于集合S。
以及某个观察序列O=o1, o2, o3, ⋯, oT (可见),T是序列的长度,O的每一时刻ot属于可见状态集合W。

相对于之前的马尔科夫链,隐马尔科夫模型有以下的不同之处:
观察状态与隐藏状态之间存在概率关系,转移矩阵B。
多一个假设条件,输出独立性,可见状态仅仅与当前隐藏状态有关,可见状态之间没有关联,用公式说明就是:
在这里插入图片描述

上面的模型都是折叠起来的,现在展开看看。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值