attention speech recognition

本文介绍了注意力机制的基本概念及其在Encoder-Decoder架构中的应用。注意力机制通过为输入的不同部分分配不同的权重来提升模型性能。文章还概述了四篇相关论文的内容,帮助读者深入理解注意力机制的工作原理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Attention:是一种权重向量或矩阵,其往往用在Encoder-Decoder架构中,其权重越大,表示的context对输出越重要。计算方式有很多变种,但是核心都是通过神经网络学习而得到对应的权重。通常第i步的输出Yi与其Attention权重aij相关,而权重aij与Decoder中的第i-1步的隐藏状态、Encoder中的第j层隐藏状态hj相关。接下来通过分析四篇论文来进一步了解其Attention的用法和构成。

转载于:https://www.cnblogs.com/inception6-lxc/p/8473839.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值