隐含马尔科夫模型

隐含马尔科夫模型详解

隐含马尔科夫模型:

任一时刻t的状态st是不可见的,观察者没法通过观察到一个状态序列s1, s2, ...来推测转移概率,但隐含马尔科夫模型在每个时刻t会输出符号Ot,Ot和St相关且仅和St相关。

 

1、给定一个模型,计算某个特定的输出序列的概率。

举例:

已知语音序列{S_{1} ,S_{2} ,S_{3} ,...,S_{t} ,...}的转移概率P(S_{t}|S_{t-1}),也就是根据上一段语音S_{t-1}得到下一段语音S_{t}的概率;

以及语音S_{t}得到文本O_{t}的生成概率P(O_{t}|S_{t});

可以解得:得到的文本翻译序列{O_{x} ,O_{x+1} ,O_{x+2} ,...,O_{x+n} ,...},可以计算得到有多大的概率是正确的。

(问:有多大的概率得到文本翻译序列{O_{x} ,O_{x+1} ,O_{x+2} ,...,O_{x+n} ,...}?)

业界对应的算法是Forward-Backward算法,前向后向算法。

 (dp取sum, dp表示各个状态下的概率)

 

2、给定一个模型和某个特定的输出序列,找到最可能产生这个输出的状态序列。

举例:

已知语音序列{S_{1} ,S_{2} ,S_{3} ,...,S_{t} ,...}的转移概率P(S_{t}|S_{t-1}),也就是根据上一段语音S_{t-1}得到下一段语音S_{t}的概率;

已知以及语音S_{t}时得到文本O_{t}的概率P(O_{t}|S_{t});

已知文本翻译序列{O_{1} ,O_{2} ,O_{3} ,...,O_{t} ,...}

可以解得:概率最大的产生该文本翻译序列的语音序列{S_{1} ,S_{2} ,S_{3} ,...,S_{t} ,...}。

业界对应的算法是Viterbi算法,维特比算法。

(dp取max, 同时打印解决方案, dp表示各个状态下的概率)

 

3、给定足够量的观测数据,如何估计隐含马尔科夫模型的参数。

举例:

已知观测数据语音序列{S_{1} ,S_{2} ,S_{3} ,...,S_{t} ,...},文本翻译序列{O_{1} ,O_{2} ,O_{3} ,...,O_{t} ,...};

可以解得:

转移概率P(S_{t}|S_{t-1}

生成概率P(O_{t}|S_{t}

业界对应的算法是Baum-Welch算法,鲍姆-韦尔奇算法。

(此坑待填)

转载于:https://www.cnblogs.com/dirge/p/6750339.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值