机器翻译作为自动翻译语言之间的任务,是机器学习社区中最活跃的研究领域之一。在机器翻译的众多方法中,序列到序列(“seq2seq”)模型最近取得了巨大的成功,并已成为大多数商业翻译系统中的标准。然而,虽然seq2seq模型(如OpenNMT或tf-seq2seq)上有大量的材料,但是缺乏教学人员知识和技能的材料,可以轻松构建高质量的翻译系统。
谷歌团队在GitHub上宣布一个新的神经机器翻译(NMT)教程,让读者能够充分了解seq2seq模型,并展示如何从零开始构建翻译模型。
本文将对nmt实现过程进行一个说明(其实也是自己遇到的一些坑吧)。
nmt工程下载的地址可以点击这里nmt。英语不好的同学,可以建议参考这个链接万字「全文」详解谷歌神经网络机器翻译NMT,这篇文章对google发布的nmt中README进行了详细的解释和说明。英语好的同学,还是建议参考原始的README和google在github上上传的nmt工程,issues模块对调试过程中出现的问题有很大的指导和帮助(本人在调试中出现的问题很多都是在这个模块中得到了解答)。
我实现nmt的环境是windows+python3.6+最新版的tensorflow(建议升级到当前最新版本,低版本可能会出现问题)。
首先CMD+R进入命令行界面,进入到包含nmt文件夹和READE.md的目录下,然后按README中训练的过程运行:
mkdir /nmt/nmt_model
这个过程是我调试过程中遇到最大的坑,报错的原因我猜测是README中运行参数中指定的训练语料的路径,与工程中的数据不一致,造成找不到训练语料的。然后我在这个链接下语料,把README中的vo
实现Google神经网络机器翻译NMT走过的坑
最新推荐文章于 2024-03-29 19:58:11 发布