
阅读理解
文章平均质量分 92
Maka_uir
这个作者很懒,什么都没留下…
展开
-
S-Net: From Answer Extraction to Answer Synthesis for Machine Reading Comprehension 论文阅读笔记
本文发表于2018年AAAI,作者为Chuanqi Tan, Furu Wei, Nan Yang...等人,文章提出了一个新的针对MS-MARCO dataset的模型S-NET,并且在该数据集上取得了state of art的成绩。 本文的创新点在于:作者提出extraction-then-synthesis框架从抽取的结果中合成答案 使用篇章排序的手段...原创 2018-11-04 07:50:18 · 1732 阅读 · 1 评论 -
REASONING ABOUT ENTAILMENT WITH NEURAL ATTENTION 论文阅读笔记
原文链接:http://cn.arxiv.org/pdf/1509.06664读这篇论文的目的在于另一篇阅读理解的文章使用了这其中的方法 摘要部分 问题的引入,目前自然语言处理领域对于句子的蕴含关系或者依存关系的识别,通常是使用基于大量人工标注特征的数据进行分类,但是实际上他们的分类效果并没有比词袋模型好到哪儿去,构建一个端到端的神经网络分类器也很难取得优势,...原创 2018-11-01 19:42:54 · 682 阅读 · 0 评论 -
Multi-Perspective Context Matching for Machine Comprehension 论文阅读笔记
Multi-Perspective Context Matching for Machine Comprehension原文链接:https://arxiv.org/abs/1612.04211摘要部分 以前的机器理解(MC)数据集要么太小,无法训练最终的深度学习模型,要么难以评估当前阅读理解技术的能力。新发布的SQuAD数据集消除了这些不利因素,并给我们一个机会来研究一...原创 2018-11-04 08:51:50 · 842 阅读 · 0 评论 -
Read + Verify: Machine Reading Comprehension with Unanswerable Questions 论文阅读笔记
原文链接:http://cn.arxiv.org/pdf/1808.05759Read + Verify: Machine Reading Comprehension with Unanswerable Questions 本篇文章创新点:1 提出了reader - vertify 结构,首先生成一个答案,再验证答案的合理性 2 提出了三种模型 3 提出了两个独立的loss函数作为...原创 2018-11-02 10:27:47 · 2750 阅读 · 0 评论 -
Joint Training of Candidate Extraction and Answer Selection for Reading Comprehension 论文阅读笔记
Joint Training of Candidate Extraction and Answer Selection for Reading Comprehension原文链接:http://cn.arxiv.org/pdf/1805.06145 本文是百度发表于 ACL 2018 的工作,论文利用强化学习的方法对串行的多文档阅读理解模块进行联合训练。作者提出了一种新的答案...原创 2018-11-05 07:44:40 · 1022 阅读 · 0 评论 -
QANET: COMBINING LOCAL CONVOLUTION WITH GLOBAL SELF-ATTENTION FOR READING COMPREHENSION 论文阅读笔记
原文链接:https://openreview.net/pdf?id=B14TlG-RWAbstract 目前的端到端机器阅读和问答模型主要基于包含注意力的循环神经网络,抛开优点。这些模型的主要缺点:在训练和推理方面效率较低。 因此我们提出了一种名为QANet的问答架构,这个网络不需要使用递归网络,它的编码器完全由卷积和self-attention组成,卷积网络处理局部信息,self-...原创 2018-11-30 21:50:14 · 1203 阅读 · 0 评论 -
Attention is All You Need -- 浅析
由于最近bert比较火热,并且bert的底层网络依旧使用的是transformer,因此再学习bert之前,有必要认真理解一下Transformer的基本原理以及self-attention的过程,本文参考Jay Alammar的一篇博文,翻译+学习原文链接:https://jalammar.github.io/illustrated-transformer/ ...原创 2018-12-26 19:08:47 · 1171 阅读 · 1 评论 -
End-to-EndOpen-Domain Question Answering with BERTserini 论文阅读笔记
论文链接:https://arxiv.org/abs/1902.01718本文主要的创新点是将Bert与Anserini 相结合,构建了一个通过外部知识库从而辅助阅读理解的方法首先使用英文维基百科数据集,对文章、段落分别建立索引,对于一个新的问题,通过搜索引擎返回top K篇文章(段落),然后feed到 fine tune好的bert reader中生成答案范围,选取分数最高的段落最为最后...原创 2019-02-20 15:24:31 · 1049 阅读 · 0 评论