Teaching Machines to Read and Comprehend

针对机器阅读理解领域,本文介绍了一种从CNN和DailyMail新闻中构建大规模训练数据集的方法。通过对原始文本进行处理,形成了适合机器理解的文档和查询对,并探讨了几种神经网络模型在这些数据上的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

关键词

real natural language traning data, nerual model

来源

Teaching Machines to Read and Comprehend
arXiv 2015.06.10 (published at NIPS 2015)

问题

针对阅读理解缺乏大规模训练数据集,从CNN和Daily Mail获取数据,构建了相应的数据集。文章直接做document,关键点和总结用来做query。为了方便数据使用,将人名全部替换为”ent123”类似的样子。然后尝试利用神经网络模型解决机器阅读理解问题。
这里写图片描述

要解决的问题

1.片段主义分析(Frame-Semantic Parsing)
即判断“who did what to him”。
2.词距判断(word distance Benchmark)

使用模型

Deep LSTM Reader

这里写图片描述
该模型重新设计LSTM公式,如下:
这里写图片描述
其中的的”||”表示连接两个向量,”|||”代表query和document的分隔符

Attentive Reader

这里写图片描述
u(query)由最后一个正向lstm输出和最后一个逆向lstm输出拼接而成。
r(document)的计算公式如下:
这里写图片描述
r是y*s的和累积。
g的计算公式如下:
这里写图片描述

Impatient Reader

这里写图片描述
u(query)由最后一个正向lstm输出和最后一个逆向lstm输出拼接而成。
r(document)计算公式如下:
这里写图片描述
与Attentive Reader区别是,每个query词都算一个r。
g计算公式如下:
这里写图片描述

实验结果及结论

这里写图片描述
文章提供新的较大的数据集,并且指出 CNN 语料要比 Daily Mail 阅读理解难度要低一些。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值