阅读理解中的数值推理(NumNet与QDGAT论文分享)

这篇博客探讨了阅读理解中的数值推理问题,特别是针对DROP数据集。介绍了NumNet模型,它通过图神经网络进行数值推理,解决了数值比较和条件问题。此外,还提到了QDGAT模型,该模型在NumNet基础上改进,通过区分不同类型的数字和实体,提高了推理准确性。实验表明,这些模型在DROP数据集上的表现优于传统MRC模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

阅读理解中的数值推理

DAQWh6.md.png

一、概述

​ 关注过阅读理解中数值推理这一部分的内容,传统的阅读理解模型,将文章和问题处理后丢进模型,模型不区分数值给出答案,这给一些关于数值类的问题带来了准确性的问题,今天我要分享的是阅读理解中的数值推理。

DAVhUU.md.png

​ 今天的分享是基于一个数据集Drop的两篇论文,我会简单介绍下drop数据集,然后是numnet和QDGAT两篇论文。

二、Drop Dataset
1. Introduction

​ DROP 数据集由 AI2 实验室2019年提出,是一个类似于 SQuAD 的阅读理解 QA 数据集,但 SQuAD 很少涉及数学运算的问题,而 DROP 数据集专为考察模型去做涉及到数学运算问题的处理能力而设计。

​ 该数据集是从维基百科中提取段落,然后在这些文章中众包生成问答对。当然,这些文章中都是数字比例很高的段落。

2. Drop:Question analysis

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-KJ877OzG-1605857695575)(/Users/c/Library/Application Support/typora-user-images/image-20201116153451401.png)]

​ AI2团队从训练集和开发集中抽取了350个问题,并手动标注了回答问题所需的的类别,左表显示了这些类别在数据集中的分布情况。减法:28.8%。 比较:18.2% 选择:19.4% 加法:11.7% 计数:16.5%。排序:11.7%

​ 问题分析中还给出了各种各样的语言结构,对于数字型问题,最常见的5个问题模式都以“how many”开头,表示需要执行计数和其他算术运算。右图显示了包含问题开头的问题中三元组的分布。

3. Drop:Answer analysis

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Vs1xgX17-1605857695577)(https://s3.ax1x.com/2020/11/16/DAZ5eP.md.png)]

​ 同样,团队也对Drop数据集中的答案进行了分析,如上图。回答一个问题平均需要考虑2.18个span;span之间的平均距离是26个单词;20%的样本需要至少3个跨度;大部分的答案是数值和专有名词…

三、NumNet
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值