A Time Delay Neural Network with Shared Weight Self-Attention for Small-Footprint Keyword Spotting浅析

本文探讨了一种使用共享权重自注意力(SWSA)的时延神经网络(TDNN),旨在减小模型参数的同时保持性能。通过前馈神经网络替代常规的回归神经网络,加快了计算速度。SWSA通过共享三个矩阵的权重,实现了特征映射的高效处理。文章详细介绍了模型结构,包括TDNN的局部特征获取,SWSA层的注意力计算过程,以及全局平均层的作用。该模型创新地结合了TDNN和SWSA,适用于小规模关键词检测任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

文章:A Time Delay Neural Network with Shared Weight Self-Attention for Small-Footprint Keyword Spotting

中心思想:通过共享自注意力机制的权重,在维持性能不变的情况下,减少模型参数
本文的创新点:一是,用前馈神经网络代替在注意力机制中常用的回归神经网络,加速模型计算;二是,自注意力机制中的三个矩阵进行参数共享,减少模型参数
文章中提到的技术:TDNN、self-attention、SWSA(Shared-Weight Self-Attention)
TDNN技术:获取序列的局部特征
self-attention技术:用三个不同的权重矩阵将特征映射到不同空间中、获取序列的全局特征
shared-weight self-attention技术:用同一个权重矩阵将特征映射到同一空间中、减少模型参数
文章中提到的模型结构如图所示:
在这里插入图片描述
模型结构:第一层TDNN-SUB(TDNN降采样层),实现方法:采用滑动窗的方式,在输入层矩阵Tin上设置一个宽度W为3(通常根据第一层拼帧结构决定)的滑动窗,当步长K超过1时(步长不易超过窗长),达到了降采样的效果,维度Dout减少为(Tin − w + 1)/k向上取整

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值