一、语音合成与自回归模型
1 语音合成流程
- 在上述流程中,文本由TTS前端转化为音素,随后音素序列通过声学模型转化为Mel频谱,将Mel频谱输入到声码器中,最后由声码器将其转换为语音。其中Mel频谱由时间轴(横轴)与频率轴(纵轴)两部分组成,是一个二维数据。人听到的声音本质是一段波形,是由大量采样点形成的一维数据。
- 从Mel频谱到波形的过程中,需要声码器来完成频谱转换。目前常用的有基于信号处理的方法,如Griffin-Lim方法;也有基于神经网络的方法,如WaveNet、HiFiNet等
2 端到端语音合成
1. 自回归模型
-
Tacotron 2 (Google Brain,2017)
-
Tacotron 2中的Encoder和Decoder层均采用双向LSTM(BLSTM),其目的在于通过双向结构更好的吸收左右两个方向的信息。因为LSTM是一个自回归结构,因此需要吸收上一层的信息来生成下一层信息。
-
Tacotron 2中采用了Location Sensitive Attention作为注意力结构,能够同时考虑内容与输入元素的位置。该注意力机制中采用了累加注意力权重,令注意力权重网络了解其学到的注意力信息,从而使得模型在序列中持续运行并避免重复未预料的语音。
-
-
Trans