
Seq2Seq
文章平均质量分 79
xinxiangbobby
这个作者很懒,什么都没留下…
展开
-
神经网络中的Attention-5.训练和评估Seq2Seq
在上一篇文章中,我们研究了Cho et al. (2014) 和Pytorch实现的Seq2Seq模型。在这篇文章中,让我们看看如何用准备好的数据训练模型,并定性地评估它。创建编码器/解码器模型首先,让我们分别创建编码器和解码器模型。尽管它们是共同训练和评估的,但为了使代码具有更好的可读性和可理解性,我们分别定义和创建它们。仅仅作为参考,我们在前面的帖子中设置了超参数,如下所示。 MAX_SENT_LEN: 源(英文)句子的最大句子长度 ...原创 2021-12-21 21:54:22 · 832 阅读 · 0 评论 -
神经网络中的Attention-5.训练和评估Seq2Seq
在上一篇文章中,我们研究了Cho et al. (2014) 和Pytorch实现的Seq2Seq模型。在这篇文章中,让我们看看如何用准备好的数据训练模型,并定性地评估它。创建编码器/解码器模型首先,让我们分别创建编码器和解码器模型。尽管它们是共同训练和评估的,但为了使代码具有更好的可读性和可理解性,我们分别定义和创建它们。仅仅作为参考,我们在前面的帖子中设置了超参数,如下所示。 MAX_SENT_LEN: 源(英文)句子的最大句子长度 ...翻译 2021-12-21 21:51:01 · 467 阅读 · 0 评论 -
神经网络中的Attention-4.Seq2Seq的实现
在上一篇文章中,我们看到了如何为Seq2Seq准备机器翻译数据。在这篇文章中,让我们用Pytorch和准备好的数据来实现Cho et al. (2014) 描述的Seq2Seq模型。数据预处理在数据处理之后,我们有四个包含学习Seq2Seq模型的关键信息的变量。在之前的文章中,我们将它们命名为eng_words, deu_words, eng_sentences, deu_sentences。eng_words和deu_words包含源语(英语)和目标语(德语)句子中独特的单词。在我处理过的数据翻译 2021-11-07 19:27:37 · 288 阅读 · 0 评论 -
神经网络中的Attention-3.为机器翻译Seq2Seq准备数据
在上一篇文章中,我们首先研究了Sequence-to-Sequence(Seq2Seq)。在这篇文章中,在用Python实现Seq2Seq模型之前,让我们看看如何为神经机器翻译准备数据。问题-神经机器翻译机器翻译的任务是将一种语言(如法语)的句子自动转换成另一种语言(如英语)的句子。我们要转换的句子(词)通常称为源句(词)。被转换成的句子(词)就是目标句子(词)。下面的图表展示了从法语到英语的翻译,第一个源词是“On”、“y”和“va”,而目标词是“Let’s”和“go”。神翻译 2021-10-26 21:02:30 · 193 阅读 · 0 评论 -
神经网络中的Attention-2.Sequence-to-Sequence (Seq2Seq)
在之前的文章中,介绍了注意力机制,并概述了它的(不那么短的)历史。在这篇文章中,将解释Sequence-to-Sequence (Seq2Seq)架构,它带来了神经机器翻译的重大突破,并推动了Attention的发展。动机-序列问题深度神经网络是在各种任务中对非线性数据进行建模的高效工具。在图像分类、句子分类等多种任务中,深度神经网络已被证明是有效的。然而,传统的架构,如多层感知机,在建模序列,如信号和自然语言的效率较低。因此,Seq2Seq被提出来将序列输入映射到序列输出。Se翻译 2021-10-16 20:06:57 · 679 阅读 · 0 评论