机器学习--概率图模型

一、隐马尔可夫模型

隐马尔可夫模型是结构最简单的动态贝叶斯网,这是一种著名的有向图模型,主要用于时序数据建模,在语音识别、自然语言处理等领域有广泛应用。
  首先我们来看看什么样的问题解决可以用HMM模型。使用HMM模型时我们的问题一般有这两个特征:1)我们的问题是基于序列的,比如时间序列,或者状态序列。2)我们的问题中有两类数据,一类序列数据是可以观测到的,即观测序列;而另一类数据是不能观察到的,即隐藏状态序列,简称状态序列。
  有了这两个特征,那么这个问题一般可以用HMM模型来尝试解决。这样的问题在实际生活中是很多的。比如:我现在在打字写博客,我在键盘上敲出来的一系列字符就是观测序列,而我实际想写的一段话就是隐藏序列,输入法的任务就是从敲入的一系列字符尽可能的猜测我要写的一段话,并把最可能的词语放在最前面让我选择,这就可以看做一个HMM模型了。再举一个,我在和你说话,我发出的一串连续的声音就是观测序列,而我实际要表达的一段话就是状态序列,你大脑的任务,就是从这一串连续的声音中判断出我最可能要表达的话的内容。
  从这些例子中,我们可以发现,HMM模型可以无处不在。但是上面的描述还不精确,下面我们用精确的数学符号来表述我们的HMM模型。
 

1.1HMM模型的定义

对于HMM模型,首先我们假设 Q Q 是所有可能的隐藏状态的集合, V 是所有可能的观测状态的集合,即:

Q={ q1,q2,...,qN},V={ v1,v2,...vM} Q = { q 1 , q 2 , . . . , q N } , V = { v 1 , v 2 , . . . v M }

其中, N N 是可能的隐藏状态数, M 是所有的可能的观察状态数。
对于一个长度为 T T 的序列, I 对应的状态序列, O O 是对应的观察序列,即:
I = { i 1 , i 2 , . . . , i T } , O = { o 1 , o 2 , . . . o T }

其中,任意一个隐藏状态 itQ i t ∈ Q ,任意一个观察状态 otV o t ∈ V
HMM模型做了两个很重要的假设如下:
1) 齐次马尔科夫链假设。即任意时刻的隐藏状态只依赖于它前一个隐藏状态。当然这样假设有点极端,因为很多时候我们的某一个隐藏状态不仅仅只依赖于前一个隐藏状态,可能是前两个或者是前三个。但是这样假设的好处就是模型简单,便于求解。如果在时刻 t t 的隐藏状态是 i t = q i ,在时刻 t+1 t + 1 的隐藏状态是 it+1=qj i t + 1 = q j , 则从时刻t到时刻t+1的HMM状态转移概率 aij a i j 可以表示为:
aij=P(it+
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值