【论文阅读】Towards Robust Neural Machine Translation

这篇ACL2018的论文来自腾讯,探讨如何通过对抗训练提升神经机器翻译模型的鲁棒性。研究发现输入的微小扰动可能影响翻译质量,因此提出在输入句子上添加扰动,并在编码器和解码器中设计目标函数,以确保模型在面对扰动时仍能生成稳定输出。论文介绍了两种添加扰动的策略:词汇级别和特征级别,并强调模型的通用性和翻译性能的提升。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文信息

ACL2018 来自腾讯

提出背景

  在神经机器翻译中,由于引入了循环神经网络和注意力机制,上下文中的每个词都可能影响模型的全局输出结果,类似于蝴蝶效应。
  比如说,同声传译里面的同音异形词;文本中的拼写错误
  输入的小的扰动会影响神经机器翻译的质量,在这篇文章中提出了利用对抗训练来提高NMT模型的robustness的方法。

具体方法

该方法的架构示意图如下图所示:
架构示意图
  其工作过程为:给定一个输入句子 x,首先生成与其对应的扰动输入 x’,接着采用对抗训练,让编码器对于 x 和 x’ 生成相似的中间表示,同时要求解码器端输出相同的目标句子 y。这样能使得输入中的微小扰动不会导致目标输出产生较大差异。
  对于翻译过程来说,有两个阶段:首先把输入x编码成隐藏状态HxH_xHx,然后从隐藏状态HxH_xHx中解码得到翻译y。
  模型有两个目标:
(1)编码得到的Hx′H_{x'}HxHxH_{x}Hx相近。
(2)给定Hx′H_{x'}Hx,解码器可以输出robust翻译y。

训练的目标函数

J(θ)=∑<x,y>∈S(Ltrue(x,y;θenc,θdec)+α∑x′∈N(x)Linv(x,x′;θenc,θdec)+β∑x′∈N(x)Lnoisy(x,y;θenc,θdec))J(\theta)=\sum\limits_{<x,y>\in S}(L_{true}(x,y;\theta_{enc},\theta_{dec})+ \alpha \sum\limits_{x'\in N(x)}{L_{inv}(x,x';\theta_{enc},\theta_{dec}}) +\beta \sum\limits_{x'\in N(x)}{L_{noisy}(x,y;\theta_{enc},\theta_{dec}) })J(

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值