Explicit Cross-lingual Pre-training for Unsupervised Machine Translation(CMLM阅读笔记)
《Explicit Cross-lingual Pre-training for Unsupervised Machine Translation》是北航的SKLSDE Lab发表于EMNLP 2019一篇论文,主要介绍一种无监督机器翻译的显式跨语言预训练方法。
摘要
在无监督机器翻译中,预训练被证明能够在跨语言场景中建模深层的上下文信息。然而,从共享词表的BPE空间获得的跨语言信息是意义不明确的以及十分有限的。在本文中,作者提出了一种新的跨语言预训练方法,该方法通过加入明确的跨语言训练信号来实现无监督机器
原创
2020-05-23 15:32:05 ·
950 阅读 ·
2 评论