博客地址:http://blog.youkuaiyun.com/wangxinginnlp/article/details/52944649
资料:https://arxiv.org/abs/1409.0473
说明:基于注意力机制的神经机器翻译(Attention-based NMT)的论文,首次将注意力机制引入神经机器翻译。
资料:https://devblogs.nvidia.com/parallelforall/introduction-neural-machine-translation-with-gpus/
http://devblogs.nvidia.com/parallelforall/introduction-neural-machine-translation-gpus-part-2/
https://devblogs.nvidia.com/parallelforall/introduction-neural-machine-translation-gpus-part-3/
说明:Kyunghyun Cho对神经机器翻译的介绍

这篇博客汇总了关于神经机器翻译(NMT)的重要资料,包括基于注意力机制的NMT论文、Kyunghyun Cho的相关介绍、Thang Luong的博士论文,以及来自清华大学刘洋老师和其它专家的综述、讲习班内容和教程,深入探讨NMT的理论与实践。
最低0.47元/天 解锁文章
1069

被折叠的 条评论
为什么被折叠?



