chain (Lattice-free MMI)

本文介绍了区分性训练的概念,包括最大互信息(MMI)、最小音素错误(MPE)等准则。重点讨论了Lattice-free MMI,即在Kaldi中的Chain模型,它是一种无需生成词格的区分性训练方法,特点是简化模型结构,采用跳帧技术和简化语言模型。Chain模型利用最大互信息目标函数进行训练,提高识别性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

区分性训练大致概念:

GMM-HMM框架的经典训练方法是EM算法,EM算法本质上是一种最大似然准则的训练。区分性训练最早的尝试是把最大互信息(MMI)准则引入训练当中,povey又引入了由MMIE改进的最小音素错误(MPE)区分性训练准则。

为了兼顾识别性能和训练效率,根据经验,一般首先用最大似然准则做起始训练,然后用区分性训练对模型进行迭代加强。

传统的最大似然训练是使正确路径的分数尽可能高,而区分性训练,则着眼于加大这些路径之间的打分差异,不仅要使正确路径的分数尽可能高,还要使错误路径,尤其是易混淆路径的分数尽可能低,这就是区分性训练的核心思想

例:识别语音内容是{A、B、C、D}中的哪一个?

最大似然优化目标:logP(B)最大

区分性训练准则的优化目标

logP(B)/(P(A)+P(B)+P(C)+P(D))最大

区分性训练准则是一类准则,贯穿始终的是区分性的训练思想,而并不是特指吗某一个具体的目标函数

常用的区分性训练准则有最大互信息(MMI)、状态级最小贝叶斯风险(sMBR)、最小音素错误(MPE)。

区分性训练中几个重要概念:

分子:解码空间中“识别正确”的子空间

分母:整个搜索空间(在工程实现中通常会通过一次解码,将高分路径过滤出来,近似整个分母空间

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值