语音合成论文优选:Enhancing Monotonicity for Robust Autoregressive Transformer TTS

本文探讨了如何通过引入步进单调性注意力机制来优化Transformer TTS系统,解决漏字和跳字问题。实验表明,这种方法提高了合成语音的质量,并增强了系统的鲁棒性。

声明:语音合成论文优选系列主要分享论文,分享论文不做直接翻译,所写的内容主要是我对论文内容的概括和个人看法。如有转载,请标注来源。

欢迎关注微信公众号:低调奋进

Enhancing Monotonicity for Robust Autoregressive Transformer TTS

本文是清华大学在interspeech 2020上发表优化transformerTTS,使其更加鲁棒,具体的文章链接

https://www.isca-speech.org/archive/Interspeech_2020/pdfs/1751.pdf

1 研究背景

基于transformer的tts系统如下图所示,因为transformer缺少对句子时序性的信息,因此常出现漏字,跳字的问题。本文通过把stepwise monotnoic attention应用到transfomer中因此使transformerTTS更加鲁棒,实验结果显示合成的语音质量MOS提高,而且系统更加鲁棒。

2 详细设计

首先看一下multi-head attention的计算公式1~3,其中为了添加位置信息添加position embeddig公式为4~6。而stepwise 的公式为7~10,具体可参考我另一篇文章(

### ReViT:通过注意力残差连接增强视觉Transformer ReViT旨在改进Vision Transformer (ViT),特别是针对其在处理大规模图像数据集时遇到的一些挑战。传统ViT模型存在一定的局限性,特别是在训练过程中可能出现的梯度消失问题以及由此引发的表现不稳定现象[^1]。 #### 注意力机制中的残差连接设计 为了克服这些问题并提高模型稳定性与表现,ReViT引入了一种新颖的设计——即在自注意层内部加入残差路径。这种结构允许信息更顺畅地流动,从而防止深层网络中常见的退化问题发生。具体来说,在每一层多头自注意力(MHSA)之后添加一条直接通往下一层输入端口的捷径,使得原始特征能够绕过复杂的变换过程而被部分保留下来[^2]。 ```python class AttentionResidual(nn.Module): def __init__(self, dim, heads=8, dropout=0.1): super().__init__() self.attn = nn.MultiheadAttention(dim, heads, dropout=dropout) def forward(self, x): identity = x # Store the input as a residual connection out, _ = self.attn(x, x, x) # Apply multi-head attention mechanism on input tensor 'x' return out + identity # Add residual back to output of MHSA layer ``` 此架构不仅有助于缓解因过度拟合而导致的效果下降,还促进了不同尺度间的信息交流,增强了整体框架对于复杂模式的学习能力。 #### 实验验证与性能提升 实验结果显示,采用上述策略构建的新颖变体能够在多个标准基准测试上取得显著优于基线的结果。尤其是在ImageNet这样的大型分类任务里,ReViT展现出了更好的泛化能力和更高的准确性。此外,当与其他先进的正则化手段相结合时,还能进一步优化最终得分。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我叫永强

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值