一个隐马尔可夫模型 (HMM) 是一个五元组:
(ΩX , ΩO, A, B, π )
其中:
ΩX = {q1,...qN}:状态的有限集合
ΩO = {v1,...,vM}:观察值的有限集合
A = {aij},aij = p(Xt+1 = qj |Xt = qi):转移概率
B = {bik},bik = p(Ot = vk | Xt = qi):输出概率
π = {πi}, πi = p(X1 = qi):初始状态分布
2 解决问题:
令 λ = {A,B,π} 为给定HMM的参数,
令 σ = O1,...,OT 为观察值序列,
隐马尔可夫模型(HMM)的三个基本问题:
2.1评估问题:对于给定模型,求某个观察值序列的概率p(σ|λ) ;
2.2解码问题:对于给定模型和观察值序列,求可能性最大的状态序列;
2.3学习问题:对于给定的一个观察值序列,调整参数λ,使得观察值出现的概率p(σ|λ)最大
b
qt(O
t)表示在q
t状态下观测到O
t的概率
解决问题1 前向法
动态规划
定义前向变量
前向法示意图
(ΩX , ΩO, A, B, π )
其中:
ΩX = {q1,...qN}:状态的有限集合
ΩO = {v1,...,vM}:观察值的有限集合
A = {aij},aij = p(Xt+1 = qj |Xt = qi):转移概率
B = {bik},bik = p(Ot = vk | Xt = qi):输出概率
π = {πi}, πi = p(X1 = qi):初始状态分布
2 解决问题:
令 λ = {A,B,π} 为给定HMM的参数,
令 σ = O1,...,OT 为观察值序列,
隐马尔可夫模型(HMM)的三个基本问题:
2.1评估问题:对于给定模型,求某个观察值序列的概率p(σ|λ) ;
2.2解码问题:对于给定模型和观察值序列,求可能性最大的状态序列;
2.3学习问题:对于给定的一个观察值序列,调整参数λ,使得观察值出现的概率p(σ|λ)最大
HMM有三个经典(canonical)问题:
已知模型参数,计算某一特定输出序列的概率.通常使用forward算法解决.
已知模型参数,寻找最可能的能产生某一特定输出序列的隐含状态的序列.通常使用Viterbi算法解决.
已知输出序列,寻找最可能的状态转移以及输出概率.通常使用Baum-Welch算法以及Reversed Viterbi算法解决.
另外,最近的一些方法使用Junction tree算法来解决这三个问题。
解决问题1 基础方法
b
解决问题1 前向法
动态规划
定义前向变量
前向法示意图