问题生成系列学习-2020_Improving Question Generation with Sentence-level Semantic Matching and Answer Positio

问题生成系列学习(2):2020_Improving Question Generation with Sentence-level Semantic Matching and Answer Position Inferring

link :https://arxiv.org/pdf/1912.00879.pdf

背景:序列-序列模型将答案及其上下文作为输入,在问题生成方面取得了长足的进展。

问题然而,我们观察到这些方法经常产生错误的问题词或关键词,并从输入中复制与答案无关的词。

分析我们认为,缺乏全局问题语义和没有很好地开发回答位置意识是关键的根源。

本文方法:

本文提出了一个包含句子级语义匹配答案位置推断两个具体模块的神经问题生成模型。

此外,我们利用应答感知门控融合机制增强解码器的初始状态。

a neural question generation model with two concrete modules: sentence-level semantic matching and answer position inferring. Further, we enhance the initial state of the decoder by leveraging the answer-aware gated fusion mechanism.

效果实验结果表明,我们的模型达到 state-of-the-art (SOTA) models on SQuAD and MARCO datasets。由于其通用性,我们的工作也对现有模型进行了显著的改进。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值