语音合成(TTS)论文优选:Robust Sequence-to-Sequence Acoustic Modeling with Stepwise Monotonic Attention for Ne

本文介绍了北京航空航天大学和微软合作的研究,提出了一种名为步进单调注意力(Stepwise Monotonic Attention, SMA)的机制,用于改善神经语音合成(TTS)系统的稳定性和鲁棒性。通过解决seq2seq模型在语音合成中常见的跳过、重复和注意力塌陷问题,SMA旨在确保局部性、单调性和完整性,从而提高合成语音的质量。实验结果显示,SMA在与基线和其他注意力机制的比较中表现出色,特别是在鲁棒性方面。" 132343313,19721736,深度学习驱动的实时人脸识别系统,"['人工智能', '神经网络', '深度学习', '图像识别', 'cnn']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

声明:语音合成(TTS)论文优选系列主要分享论文,分享论文不做直接翻译,所写的内容主要是我对论文内容的概括和个人看法。如有转载,请标注来源。

欢迎关注微信公众号:低调奋进

Robust Sequence-to-Sequence Acoustic Modeling with Stepwise Monotonic Attention for Neural TTS

本篇文章是北京航空航天大学计算机科学与工程学院和中国微软在2019年发表的文章,主要提出了stepwise monotonic attention使语音合成系统更加鲁棒。具体的文章链接 https://arxiv.org/pdf/1906.00672.pdf

(接下来,开始整理attention的文章,逐个击破)

1 背景

seq2seq的模型的语音合成系统为当今的主流模式,其attention模块决定了输入和输出的对齐质量,从而影响合成的语音好坏,尤其存在skipping,repeating and attention collapse的问题。本文提出了一个好的attention评价标注有三个:1)locality:输出的帧都能映射到相应的输入;2)monotonicity:单调性; 3)completeness:完整性,每个输入都有相应的输出。现在的提出的attention的在第一点和第2点上进行设计,但没有文章在第三点上进行设计。本文设计了满足以上三个条件的attention,使语音合成系统更加鲁棒。

2  详细设计

先看一下

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我叫永强

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值