tf.contrib.seq2seq.BahdanauAttention()
__init__(
num_units,
memory,
memory_sequence_length=None,
normalize=False,
probability_fn=None,
score_mask_value=None,
dtype=None,
name='BahdanauAttention'
)
有两种attention模式:
1.Bahdanau attention
现在,对上面的解码器稍作修改。我们假设时刻t′t′的背景向量为ct′ct′。那么解码器在t′t′时刻的隐含层变量
st′=g(yt′−1,ct′,st′−1)
令编码器在tt