Attention原理+向量内积+Transformer中的Scaled Dot-Product Attention

本文介绍了Attention机制的基本原理,它通过对Source中的Value进行加权求和来生成Attention数值,权重由Query和Key的相似性决定。接着讨论了向量内积的概念及其在求导中的应用。最后,聚焦于Transformer中的ScaledDot-ProductAttention,这是一种利用向量内积并进行归一化的注意力机制,可以并行计算多个query的注意力得分。

一、Attention原理

在这里插入图片描述

  将SourceSourceSource中的构成元素想象成是由一系列的<Key,Value><Key,Value><Key,Value>数据对构成,此时给定TargetTargetTarget中的某个元素QueryQueryQuery,通过计算QueryQueryQuery和各个KeyKeyKey的相似性或者相关性,得到每个KeyKeyKey对应ValueValueValue的权重系数,然后对ValueValueValue进行加权求和,即得到了最终的AttentionAttentionAttention数值。所以本质上AttentionAttentionAttention机制是对SourceSourceSo

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

晓shuo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值