端到端语音识别系统

本文探讨了端到端语音识别系统,挑战了传统的手工特征提取和声学建模方法。研究提出CLDNN模型,结合CNN、LSTM和DNN结构,减少了对CD-state和对齐的依赖。实验表明,CLDNN在filter-bank特征上表现优于单一网络结构。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文主要观点来自于 google论文。

Towards End-to-EndSpeech RecognitionUsing Deep Neural Networks。
问题背景:

传统语音识别系统需要经过提特征,声学建模(state-phoneme-triphone),语言建模系列过程,其中声学建模需要对上下文相关的音素模型进行状态聚类,对每一帧特征需要做对齐。

端到端系统主要提出了下面的问题:

1. 特征表示:

     神经网络既然可以用来做特征学习,是否可以直接从原始音频信号中直接提取特征,不需要手工的提取log-mel特征?

2. 声学建模: 

     DNN,CNN 和 LSTM通常用来进行声学建模,通过结合这些结构是否可以更好建模?

3. 是否可以减少对现有CD-state(通过HMM训练和聚类得到)和aligment的依赖?例如利用CTC

(1))

LSTM的时序建模直接在特征做xt, 对xt进行高维建模可以减少谱变化,能更好的学习时序结构,卷积网络能很好的减少谱差异性,将特征映射到一个说话人空间。

考虑到LSTM局限性,CLDNN通过结合三种网络结构,来解决问题:

一是把特征输入到CNN层,降低谱差异性,二是把CNN的输出输入到LSTM建模时序特征,三是把LSTM的输出作为DNN的输入,减少LSTM隐层的变化,使得特征转化到更可分的空间。

CLDNN的处理过程:

      

1.  mel特征 40dim

2. 频域的卷积fconv: ICASSP 2013

3.  LSTM层: 2到3层,每层832个记忆元

4.  DNN层: 一个relu layer层(1024),一个线性层(512)

实验结果证明了在filter-bank的特征上,通过结合三种不同结构的神经网络,比单一网络结构有提升

Raw-waveform CLDNNs

上一节,讨论了网络结构组合的效果,下面我们看看,能否不提谱特征,而直接利用神经网络从音频流中学出特征来呢?
注意上面两图的输入,将mel谱特征改为音频采样点。
前者的输入是40dim的谱特征,后面通过时域卷积,产生一个P dim的帧,因此后者有两个卷积层。



评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值