tf.contrib.seq2seq.BahdanauAttention函数和tf.contrib.seq2seq.LuongAttention函数学习

这篇博客介绍了TensorFlow中BahdanauAttention和LuongAttention两种注意力机制,包括它们的计算公式和应用场景。BahdanauAttention通过加权平均编码器的隐含层来计算注意力权重,而LuongAttention则提供了归一化的改进。文章还提到了这两个方法在源码中的实现,并引用了相关论文作为深入学习的参考资料。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

tf.contrib.seq2seq.BahdanauAttention()

__init__(
    num_units,
    memory,
    memory_sequence_length=None,
    normalize=False,
    probability_fn=None,
    score_mask_value=None,
    dtype=None,
    name='BahdanauAttention'
)

有两种attention模式:

1.Bahdanau attention

现在,对上面的解码器稍作修改。我们假设时刻tt′的背景向量为ctct′。那么解码器在tt′时刻的隐含层变量

st=g(yt1,ct,st1)

令编码器在tt

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值