问题生成系列学习(2):2020_Improving Question Generation with Sentence-level Semantic Matching and Answer Position Inferring
link :https://arxiv.org/pdf/1912.00879.pdf
背景:序列-序列模型将答案及其上下文作为输入,在问题生成方面取得了长足的进展。
问题:然而,我们观察到这些方法经常产生错误的问题词或关键词,并从输入中复制与答案无关的词。
分析:我们认为,缺乏全局问题语义和没有很好地开发回答位置意识是关键的根源。
本文方法:
本文提出了一个包含句子级语义匹配和答案位置推断两个具体模块的神经问题生成模型。
此外,我们利用应答感知门控融合机制来增强解码器的初始状态。
a neural question generation model with two concrete modules: sentence-level semantic matching and answer position inferring. Further, we enhance the initial state of the decoder by leveraging the answer-aware gated fusion mechanism.
效果:实验结果表明,我们的模型达到 state-of-the-art (SOTA) models on SQuAD and MARCO datasets。由于其通用性,我们的工作也对现有模型进行了显著的改进。