discriminative training鉴别性训练

本文探讨了最大互信息估计(MMIE)准则在语音识别声学建模中的应用,对比了传统最大似然估计(MLE)方法,阐述了MMIE如何通过降低条件熵H(W|O)来提高模型的区分能力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

MLE(maximum likelihood estimation最大似然估计):
之前用于训练HMM参数(A和B矩阵)所用的Baum-Welch算法和嵌入式训练时基于最大化训练数据的似然度的。MLE的替代方案是不再将最佳模型和数据相匹配,而是从其他模型中区分出最佳模型。鉴别性训练包括MMIE(最大互信息估计准则,Woodland and Povey, 2002)使用NN/SVM分类器,MCE(最小分类错误准则,Chou et al., 1993;McDermott and Hazen, 2004),MBR(最小贝叶斯风险估计准则,Doumpiotis et al., 2003a)。

  1. Maximum Mutual Information Estimation(最大互信息估计)
    在这里插入图片描述
    MMIE准则原理:
    在O给定的情况下,描述对W的平均不确定性的度量是条件熵H(W|O),写作:
    H(W∣O)=−∑W,Op(W,O)logp(W∣O)=−E[logp(W∣O)]H(W|O)=-\sum\limits_{W,O} {p(W,O)logp(W|O)} =-E[logp(W|O)]H(WO)=W,Op(W,O)logp(WO)=E[logp(WO)]
    目标是降低这个不确定度。在实际语音识别声学建模过程中,通常使用一个参数化的模型/\来近似求的真实后验概率P(W|O).
    H∧(W∣O)=−E[log⁡p∧(W∣O)]{H_ \wedge }(W|O) = - E[\log {p_ \wedge }(W|O)]H(WO)=E[logp(WO)]
    最小化H∧(W∣O)H_ \wedge (W|O)H(WO)的过程就是最大化互信息I∧(W;O)I_ \wedge (W;O)I(W;O)的过程,这种情况下的MMI准则实质上等价于条件最大似然准则(Conditional Maiximum Likelihood)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值