
深度学习
文章平均质量分 95
Aidanmomo
这个作者很懒,什么都没留下…
展开
-
Joint Time-Frequency and Time Domain Learning for Speech Enhancement
对于单通道语音增强,基于时域的方法和基于时频域的方法各有优劣,本文提出了一种跨域框架,TFT-Net,该模型以时频谱作为输入,以时域波形信号作为输出。该方法利用了我们所掌握的关于频谱的知识,避免了T-F域方法存在的缺点。在TFT-Net中,我们设计了一个双路注意力块(DAB),以充分利用沿时间和频率轴的相关性。本文进一步发现,独立于样本的DAB(SDAB)在提高与语音质量和复杂性之间实现了良好的权衡。消融实验的结果表明,跨域设计和SDAB块对模型性能的提升帮助很大。典型的时频域方法如图1(a)所示,网络的原创 2022-06-12 15:25:10 · 1835 阅读 · 1 评论 -
Teacher-Student Learning For Low-latency Online Speech Enhancement Using Wave-U-Net
文章目录ICASSP 20210. 摘要1. 简介2. Wave-U-Net for Speech Enhancement3. Proposed Online Low-latency Model3.1 Online Wave-U-Net3.2 Teacher-Student Learning for Knowledge Transfer4. 实验阶段4.1 Datasets4.2 Networks architectures and training settings4.3 实验结果ICASSP 202原创 2022-04-19 15:15:07 · 1947 阅读 · 0 评论 -
AST:Audio Spectrogram Transformer
文章目录0. Abstract1. Introduction2. Audio spectrogram transformer2.1 Model architecture2.2 ImageNet Pretraining3. Experiments3.1 AudioSet Experiments3.1.1 Dataset and Training Details3.1.2 AudioSet Results3.1.3 Ablation Study0. Abstract该文发表于Interspeech2021原创 2022-01-04 15:22:59 · 6888 阅读 · 1 评论 -
Transformer and Self-Attention(Pytorch实现)
文章目录1. Attention2. Self-Attention3. Multi-Head Attention4. Transformer4.1 Encoder4.2 Decoder5. Transformer6. 补充,masked_self_attentioncode by Tae Hwan Jung(Jeff Jung) @graykode, Derek Miller @dmmiller6121. AttentionAttention函数的本质可以描述为:将查询(query)和一组键值(key-原创 2021-11-22 15:40:14 · 3220 阅读 · 0 评论