
seq2seq
学无止境还得学
技术更新很快,只有自己不断学习,不断进步,才能与时俱进。
展开
-
seq2seq主要实现步骤和源码
注意点:1 数据预处理阶段(添加特殊字符)主要用来进行字符补全,和都是用在Decoder端的序列中,告诉解码器句子的起始与结束则用来替代一些未出现过的词或者低频词2 encoder直接LSTM或RNN模型#下面我用到的是LSTM模型3 decoder对target数据进行处理构造Decoder在训练过程中,我们需要将我们的target序列作为输入传给Decoder端RNN的每个阶段,而不是使用前一阶段预测输出,这样会使得模型更加准确。TrainingHelper用于训练阶段,Greedy原创 2020-10-16 11:16:43 · 1845 阅读 · 0 评论 -
2020-08-07
seq2seq序列到序列模型本文从RNN角度出发,主要是讲述seq2seq模型的原理。Seq2Seq模型简介Seq2Seq模型是输出的长度不确定时采用的模型,这种情况一般是在机器翻译的任务中出现,将一句中文翻译成英文,那么这句英文的长度有可能会比中文短,也有可能会比中文长,所以输出的长度就不确定了。如下图所,输入的中文长度为4,输出的英文长度为2。seq2seq模型在网络结构中,输入一个中文序列,然后输出它对应的中文翻译,输出的部分的结果预测后面,根据上面的例子,也就是先输出“machine”,将原创 2020-08-07 17:33:27 · 248 阅读 · 0 评论