《Context-aware Natural Language Generation with Recurrent Neural Networks》
使用循环神经网络的上下文感知自然语言生成
1.背景
传统的自然语言生成(可以理解为NMT)中,只是开始生成的时候才用到了编码时生成的向量,这篇论文主要针对该问题做出相应的改进,在后续生成过程中使用编码时生成的向量。
2.大体框架
2.1传统方式
《Context-aware Natural Language Generation with Recurrent Neural Networks》
使用循环神经网络的上下文感知自然语言生成
1.背景
传统的自然语言生成(可以理解为NMT)中,只是开始生成的时候才用到了编码时生成的向量,这篇论文主要针对该问题做出相应的改进,在后续生成过程中使用编码时生成的向量。
2.大体框架
2.1传统方式