系列目录:
Seq2Seq Chatbot 聊天机器人:基于Torch的一个Demo搭建 手札
深度学习(BOT方向) 学习笔记(1) Sequence2Sequence 学习
深度学习(BOT方向) 学习笔记(2) RNN Encoder-Decoder 及 LSTM 学习
1 前言
这个深度学习,其实是来自每周Paper笔记的整理版,即文章的主要内容其实是我对一篇文章的整理,受限于个人水平,可能很多地方会出现理解偏差、或者理解不到位的地方,所以如果发现什么不对的地方欢迎交流。之前我一直不想发这个博文,因为觉得我水平实在有限,不过现在看来还是不论好坏,拖出来见见光好了。
所以这个系列的博文的主要内容是我每周Paper阅读的笔记整理,偶尔穿插着一些实验内容。文章的具体信息我会放置于末尾,有需要的同学请根据文章题目去寻找原始论文
2 Seq2Seq是什么
网上有很多关于Seq2Seq的解释,但是从我的角度来说,我愿意把Seq2Seq看做是:
从一个Sequence做某些工作映射到(to)另外一个Sequence的任务
具体结合实际应用来说,如下的连个任务都可以看做是Seq2Seq的任务“
1、SMT翻译任务(源语言的语句 -> 目标语言的语句)
2、对话任务(上下文语句->应答语句)
诸如上图,其实也就是一个示例(从ABC

本文介绍了Seq2Seq模型在深度学习中的应用,特别是RNN Encoder-Decoder框架在序列转换任务中的作用,如机器翻译和对话系统。文章详细阐述了Encoder和Decoder的工作原理,并提及实验中使用RNN进行英语到法语的翻译任务,取得了接近WMT14最高分的效果。尽管基础RNN存在长序列信息丢失问题,但通过LSTM和Attention机制的引入,模型性能得到提升。Seq2Seq模型因其简单而强大的特性,成为后续工作的基础。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



