端到端的神经网络机器翻译(End-to-End Neural Machine Translation)是近几年兴起的一种全新的机器翻译方法。前面介绍了NMT的基本RNN Encoder-Decoder结构以及Attention Mechanism。但是传统的NMT还存在一些不足之处,为此,研究者展开了一系列的工作
转载请注明出处:http://blog.youkuaiyun.com/u011414416/article/details/51567254
本文将简要介绍如下工作:
Zhaopeng tu, Zhengdong Lu, Yang Liu, Xiaohua Liu and Hang Li. Modeling Coverage for Neural Machine Translation. In ACL 2016 (Long Paper).
Shiqi Shen, Yong Cheng, Zhongjun He, Wei He, Hua Wu, Maosong Sun and Yang Liu. Minimum Risk Training for Neural Machine Translation. In ACL 2016 (Long Paper).
本文不讨论具体的NMT网络设置、训练细节、详细的结果等等,如果要深入钻研具体的工作,还请查阅论文原文。此外,由于ACL 2016只出了收录结果,论文集还未放出,本文参考的相关论文都是各作者挂在arXiv上的版本。