Additive Attention
等价于将key和value合并起来后放入到一个隐藏大小为h输出大小为1的单隐藏层
总结
1.注意力分数是query和key的相似度,注意力权重是分数的softmax结果
2.两种常见的分数计算:
(1)将query和key合并起来进入一个单输出单隐藏层的MLP
(2)直接将query和key做内积
注意力打分函数
!pip install d2l
import math
import torch
from torch import nn
from d2l import torch as d2l
masked_softmax函数 实现了这样的掩蔽softmax操作(masked softmax operation), 其中任何超出有效长度的位置都被掩蔽并置为0。
def masked_softmax(X, valid_lens):
"""通过在最后一个轴上掩蔽元素来执行softmax操作"""
# X:3D张量,valid_lens:1D或2D张量
if valid_lens is None:
return nn.functional.softmax(X, dim=-1)
else:
shape = X.shape
if valid_lens.dim() == 1:
valid_lens = torch.repeat_interleave(valid_lens, shape[1])
else:
valid_lens = valid_lens.reshape(-1)
# 最后一轴上被掩蔽的元素使用一个非常大的负值替换,从而其softmax输出为0
X = d2l.sequence_mask(X.reshape(-1, shape[-1]), valid_lens,
value=-1e6)
return nn.functional.softmax(X.reshape(shape), dim=-1)
考虑由两个2X4
矩阵表示的样本, 这两个样本的有效长度分别为2
和3
。 经过掩蔽softmax操作,超出有效长度的值都被掩蔽为0。
masked_softmax(torch.rand(2, 2<