5.3.使用注意力机制的seq2seq

使用注意力机制的seq2seq

动机:机器翻译中,每个生成的词可能相关于源句子中不同的词,也就是说,我们希望翻译后的句子中,每一个词元的位置对应源句子的位置。

加入注意力

​ 编码器对每次词的输出作为key和value(一样的) ,解码器RNN对上一个词的输出是query,注意力的输出和下一个词的词嵌入合并进入RNN

在这里插入图片描述

​ 使用注意力机制,使得与上一个输出相近的权重更大,提高准确性。

​ 更详细的说,就是将上下文变量根据隐状态进行加权求和了:
c t ′ = ∑ t = 1 T α ( s t ′ − 1 , h t ) h t c_{t'}=\sum ^{T}_{t=1} \alpha(s_{t'-1},h_t)h_t ct=t=1Tα(st1,ht)ht
​ 其中,时间步 t ′ − 1 t'-1 t1的解码器隐状态

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值