隐马尔可夫模型

本文为《数学之美》,隐马尔可夫模型这一章的读书笔记。
隐马尔可夫模型最初应用在通信领域,继而推广到语音和语言处理中,成为自然语言处理和通信的桥梁。同时也是机器学习的主要工具,作为工具时同时需要,训练算法(保姆韦尔奇算法)和解码算法(维比特算法)。
在这里插入图片描述
S (Signal)
O (Observation)

1 隐马尔可夫模型

马尔可夫假设:随机过程中的各个状态StS_{t}St的概率分布只和前一个状态St−1S_{t-1}St1有关,即
P(St∣S1,S2,...,St−1)\textit{P} \left (S_{t}|S_{1},S_{2},...,S_{t-1} \right )P(StS1,S2,...,St1) = P(St∣St−1) \textit{P}\left (S_{t}|S_{t-1} \right )\,P(StSt1)
马尔可夫链(马尔可夫过程):符合这个假设的随机过程。
在这里插入图片描述
隐马尔可夫模型:任意时刻的状态StS_{t}St是不可见的,所以无法推测状态转移(m2-m3or m4)概率,但是每次假设都有一个与StS_{t}St相关且仅与StS_{t}St相关的OtO_{t}Ot,这种称为独立输出假设。如下,这个模型就称为隐马尔可夫模型。

在这里插入图片描述
于是,要识别的句子为S1,S2,S3S_{1},S_{2},S_{3}S1S2S3,已知输出o,来判断输入的s的概率。
在这里插入图片描述
利用贝叶斯转化为
在这里插入图片描述
分母为已知的数,所以等同于
在这里插入图片描述
根据5.5带入5.2
在这里插入图片描述
在这里插入图片描述

然后再求解5.1的最大值,需要用到为比特算法。

1 隐马尔可夫模型的训练

训练模型主要是得到模型的参数,
转移概率:P(St∣St−1) \textit{P}\left (S_{t}|S_{t-1} \right )\,P(StSt1)
生成概率: P(Ot∣St) \textit{P}\left (O_{t}|S_{t} \right )\,P(OtSt)
有监督的训练,直接人工去标记好概率。
无监督的训练,(鲍姆韦尔奇算法)
利用观测到的值去倒推更新模型的参数,一直迭代更新,直到模型的质量不再有明显的提高为止,就得到了模型的参数,但是这种方法容易陷入局部最优。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值