Attention Is All You Need 论文笔记

这篇博客详细解析了《Attention Is All You Need》论文,重点介绍了Transformer模型的构建,特别是Self-Attention和Multi-Head Attention机制。通过讲解Attention的计算过程,包括query、key、value的生成,以及position embedding的作用,帮助读者深入理解Transformer如何处理输入序列的全局依赖关系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Attention Is All You Need 论文笔记


本文主要讲述Self-Attention机制+Transformer模型。自己看过论文与其他人文章的总结,不是对论文的完整翻译。

论文原文翻译可看这篇,翻译质量还可以。
关于Attention的讲解可以看这里:Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models With Attention)
关于Transformer,这篇文章讲解很棒:The Illustrated Transformer
本文的markdown源码

背景

Attention机制允许对依赖关系进行建模,而不考虑其在输入输出中的距离。在多数情况下,Attention与循环神经网络一起使用。

Transformer模型提出的原因:循环神经网络模型无法并行计算

Tansformer模型简介

image

transformer模型

Transformer模型是纯attention模型,完全依赖attention机制来描述输入与输出的全局依赖。

在Transformer模型中,依赖关系的计算降低到固定次数(这里就是说计算速度快啦),尽管由于对用attention权重化的位置取平均降低了效果,但是我使用Multi-Head Attention进行抵消。

Self-attention,有时称为intra-attention,是一种attention机制,它关联单个序列的不同位置以计算序列的表示。

Attention & Self-Attetion
  • attention:每一步输出时,找到输入中最应该注意的部分。(对齐)
  • self-attention:在模型处理某个词时,self-attention允许模型查看其他位置,来寻找更好编码该词的线索。

论文细节

Attention

  1. 首先要计算出三个向量q,k,v。
    1. q是query,是当前要处理的词对应的向量;k是key,通过计算q与k的关系可以得到当前需要对其他词的关注度;v是value,表示的是其他单词。
    2. 这三个向量是通过训练出三个矩阵与词的embedding相乘得到。
    3. q,k,v维度一般小于embedding。(非必要,但是可以减小运算量)
    4. 在论文中,embedding维度512,q,k,v维度 d k d_k dk=64
  2. q,k相乘得到一个分数。 这里是相当于计算了一个相似度,找到当前词到其他词的相关关系。
  3. 该分数除以 d k \sqrt{d_k} dk 。这里是为了更稳定的梯度,否则做softmax容易导致一个1其他全是0。
  4. 对3中的值做softmax。softmax分数决定了在该位置其他词表达多少。显然本词自身占比会最高,但也会关注到相关的词。
  5. softmax乘以v。保留关注的词,丢弃不相关的。
  6. 对5产生的vectors求和,就产生了该位置的self-attention输出。
    A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ) V Attention(Q,K,V)=softmax(\frac{QK^T}{\sqrt{d_k}})V Attention(
### 关于 'Attention is All You Need' 论文中自注意力机制的概念解释 #### 自注意力机制定义 自注意力,即内部注意力,是一种特殊的注意力机制,它能够将单个序列中的不同位置相互关联来计算该序列的表示形式[^1]。这种机制允许模型在处理某个词时考虑整个输入序列的信息。 #### 应用领域 此技术已被广泛应用于多个自然语言处理任务之中,比如但不限于阅读理解、抽象摘要创建以及文本蕴含分析等场景中,在这些应用里展示了强大的性能提升效果[^2]。 #### 工作原理概述 具体来说,Attention的工作流程可以通过三个核心组件——Query(查询)、Key(键)和Value(值)来进行描述。输出是由所有的Values经过加权求和得到的结果;而权重则是基于Queries与Keys之间的匹配程度通过Softmax函数进行标准化后的得分决定的[^3]。 #### 实验设置详情 为了验证提出的架构的有效性,研究人员利用了一台配备有八个NVIDIA P100 GPU的强大硬件平台来进行实验性的训练工作。基础版本模型每一步骤耗时约为0.4秒完成一次迭代更新操作,并且总共经历了十万次这样的循环过程或者说持续约十二个小时的时间长度才能达到收敛状态。而对于更大规模配置下的变体,则需要更长时间——大约三十五万六千分钟也就是接近三天半才可结束全部的学习周期[^4]。 ```python import torch.nn.functional as F def scaled_dot_product_attention(q, k, v, mask=None): d_k = q.size()[-1] scores = torch.matmul(q, k.transpose(-2, -1)) / (d_k ** 0.5) if mask is not None: scores = scores.masked_fill(mask == 0, -1e9) attention_weights = F.softmax(scores, dim=-1) output = torch.matmul(attention_weights, v) return output, attention_weights ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值