Seq2Seq2、Attention的多种模式

本文深入探讨了Seq2Seq架构的四种模式,包括基础RNN编码解码、带回馈的解码、带编码向量及注意力机制的解码模式。通过实例解析,帮助读者理解不同模式的工作原理及应用场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#2020.8.19
苏神博客的基础seq2seq架构
在这里插入图片描述
玩转Keras之Seq2Seq自动生成标题 | 附开源代码

关于seq2seq的多种模式
模式一:
Encoder端、Decoder端都采用RNN。在编码的每个时刻,RNN除了上一时刻产生的隐层状态编码时,还有当前时刻的输入字符;而在解码阶段没有这种输入。最简单的一种方式是:把编码端得到的隐层向量作为解码端的每一时刻的输入向量。
在这里插入图片描述
模式二:带回馈的解码模式:
在解码阶段,每一时刻依赖于上一时刻的输出与隐层向量
在这里插入图片描述
模式三:
带编码向量的解码模式
在这里插入图片描述
模式四:带注意力机制的解码模式:
在这里插入图片描述
下图是模式四模型实现的详细图解:
注:
两个黄色的输入使用的是相同的embedding data。
在这里插入图片描述
参考:大神博客

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值