神经网络机器翻译实现---Seq2Seq+注意力机制

本文介绍神经机器翻译(NMT)的基本框架,包括序列到序列(sequence-to-sequence)模型,以及通过预训练词向量、teachfoucing和Attention机制来提升翻译性能的方法。并以德文翻译成英文为例,详细讲解数据准备、模型构建过程。

1、NMT(Neural Machine Translation)简介

NMT框架可以简单地表示为如下图:输入句子经过编码得到上下文向量context,context再经过译码得到输出句子

可具体表示为

论文Sequence to Sequence Learning with Neural Networks称这个框架为序列到序列(sequence-to-sequence)

the context vector为,

输出

2、准备数据

本文以德文翻译成英文为例,数据集下载https://nlp.stanford.edu/projects/nmt/

一对数据为

本文句子长度设为固定值,输入句子为L,输出为M,为此将上面数据对处理成如下,其中<s>为开始符,</s>为结尾符

为了让模型再译码阶段学习到更多的输入信息,可以将输入句子反转

3、构建模型

xxx

4、性能提升

预训练词向量

teach foucing

Attention

论文Neural Machine Translation by Learning to Jointly Align and Translate

 

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值