39、注意力与记忆增强网络技术解析

注意力与记忆增强网络技术解析

1. 注意力机制

注意力机制在自然语言处理(NLP)和自然语言理解(NLU)领域有着广泛的应用,下面介绍几种不同类型的注意力机制。

1.1 局部注意力

在编码器 - 解码器网络中,局部注意力的逐步计算过程如下:
- 首先计算注意力权重矩阵 $A$:
- $A = softmax(V_a \tanh(W_a H^{\top}))$ (9.12)
- 然后计算上下文向量 $C$:
- $C = AH$ (9.13)
为了鼓励注意力向量的多样性并惩罚冗余,使用正交性约束作为正则化技术:
- $\Omega = |(AA^{\top}-I)|^2_F$ (9.14)

1.2 键值注意力

键值注意力将隐藏层拆分为键和值,键用于注意力分布,值用于上下文表示。隐藏向量 $h_j$ 被拆分为键 $k_j$ 和值 $v_j$:$[k_j;v_j] = h_j$。长度为 $L$ 的注意力向量 $a_i$ 由以下公式给出:
- $a_i = softmax(v_a \tanh(W_1[k_{i - L}; \cdots ; k_{i - 1}] + W_2 1^{\top}))$ (9.15)
其中 $v_a, W_1, W_2$ 是参数。上下文表示为:
- $c_i = [v_{i - L}; \cdots ; v_{i - 1}]a^{\top}$ (9.16)

1.3 多头自注意力

多头自注意力在机器翻译任务中取得了很好的效果。其计算步骤如下:
1. 词嵌入

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值