主流端到端模型:
Transducer S2S
Attention mechanism 无 有
搭建组件 RNN或者Transformer RNN或者Transformer
流式 自然 需要把全局注意力转为局部注意力
应用场景 在线 离线

两大点,Transformer Transducer, Conformer Transducer
INTERSPEECH 2020 口音英语语音识别比赛:
- 许多类型的数据增强是很有帮助的(速度变化,音频拼接,加噪音,加混响)
- 基于注意力的encoder和CTC组合模型是主要的策略(CTC+LAS,CTC+Transformer,CTC+Conformer)
- 语言模型(RNNLM,Transformer)
- Wav2vec是一个很好的无监督学习框架
- 特征用法(Fbank,X-vector,wav2vec)

博客介绍了主流端到端模型Transducer和S2S的特点,包括注意力机制、搭建组件、流式特性和应用场景等。还提及INTERSPEECH 2020口音英语语音识别比赛,指出数据增强有帮助,基于注意力的encoder和CTC组合模型是主要策略,介绍了语言模型和无监督学习框架Wav2vec及特征用法。
1350

被折叠的 条评论
为什么被折叠?



