***chapter 16 神经网络机器翻译技术

本文深入解析神经网络机器翻译原理,重点介绍Encoder-Decoder模型及注意力机制如何解决输入输出长度不匹配问题,并通过TensorflowNMT搭建越南语到英语翻译引擎。
部署运行你感兴趣的模型镜像

本章主要介绍两部分内容:
1、神经网络机器翻译技术的原理;
2、利用Tensorflow NMT 实现“机器翻译”;

一、神经网络机器翻译原理

(一)Encoder - Decoder 模型的原理

在传统的 N VS N RNN中,其input和output等长,他的这种特性限值了他在“机器翻译”领域的应用,因为,在机器翻译中,“原文”和“译文”往往是不等长的。
Encoder - Decoder 模型有效解决了 “N VS N RNN”的缺陷,其核心思想是:将input转为一个context(c)(c实际是一个hidden value),然后在将context转为output,其结构图如下所示:
在这里插入图片描述
在这里插入图片描述
Encoder - Decoder模型可以处理很多问题,如下图所示:

通过Encoder - Decoder模型可以有效解决input和output不等长的问题,但是,在该模型中,context©必须包含Input的所有信息,当input过长时,context(c)将无法存储如此之多的信息,这将导致翻译质量的下降,为解决此问题,引入了“注意力机制”。

(二)注意力机制

注意力机制通过在不同的时间段,输入不同的c值解决了Encoder - Decoder模型的瓶颈,其结构如下所示:

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Sarah ฅʕ•̫͡•ʔฅ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值