
NLP应用/阅读理解
文章平均质量分 75
线性代数
u013250861
这个作者很懒,什么都没留下…
展开
-
NLP-阅读理解:【输入格式:[CLS] + question + [SEP] + context + [SEP](把question和context合并成一个序列)】【输出:各位置是答案索引的概率】
【代码】NLP-阅读理解:模型训练【输入格式:[CLS] + question + [SEP] + context + [SEP](把question和context合并成一个序列)】原创 2023-03-28 11:42:15 · 312 阅读 · 0 评论 -
NLP-阅读理解:数据集介绍及预处理【SQuAD、DuReader】
一、SQuAD数据集二、DuReader数据集1、DuReader数据集介绍DuReader,从名字(Du和Reader)就可以看出来,是百度整理出来的阅读理解数据集。DuRader数据集由一系理的4元组构成,每个4元组 {q,t,D,A}\left\{ q, t,D,A \right\}{q,t,D,A} 就是一条样本,其中, qqq 表示一个问题, ttt 表示问题的类型, DDD 表示问题相关文档集合, AAA 表示一系列答案(由人手工标注)。它相较于之前阅读理解数据集,主要有三个特点:原创 2021-08-31 21:45:49 · 6123 阅读 · 0 评论 -
NLP-阅读理解:“阅读理解”综述(Machine Reading Comprehension, MRC)【完形填空、多项选择、抽取式(答案片段抽取)、生成式(自由作答)】《机器阅读理解数据集》
一、阅读理解概述所谓的机器阅读理解(Machine Reading Comprehension, MRC)就是给定一篇文章,以及基于文章的一个问题,让机器在阅读文章后对问题进行作答。机器阅读理解(MRC)是一项任务,用于测试机器通过要求机器根据给定的上下文回答问题来理解自然语言的程度。早期的MRC系统是基于规则的,性能非常差。随着深度学习和大规模数据集的兴起,基于深度学习的MRC显著优于基于规则的MRC。1、常见任务定义MRC 的常见任务主要有六个:完形填空、多项选择、片段抽取、生成式、会话、多跳推原创 2021-08-21 20:52:18 · 7315 阅读 · 1 评论 -
NLP-阅读理解-2015:MRC模型-指导机器去阅读并理解【开篇之作】【完形填空任务】【第一次构建大批量有监督机器阅读理解训练语料】【三种模型结构:LSTM、Attention、Impatient】
《原始论文:Teaching Machines to Read and Comprehend》作者想要研究的问题是什么?一一在当下神经网络迅速发展的时代,如何针对机器阅读理解题出一个网络模型结构是基础。由于缺乏大量规模的训练语料。无法对深度网络模型进行训练。因此作者构建了一个训练数据。有了数据作为支撑,作者提出了三个基本的深度神经网络模型,用于解决阅读理解任务和提供给研究人员作为baselines一、机器阅读理解概述1、检索式问答 v.s. 阅读理解式问答2、机器阅读理解任务3.原创 2021-08-14 19:11:01 · 1124 阅读 · 0 评论 -
NLP-阅读理解-2016:MatchLSTM(UniAttention+PointerNet)【片段抽取式任务;单向注意力机制】【 Sequence/Boundary 模型】【数据集:SQuAD】
NLP-阅读理解-2016:Match-LSTM【单向注意力机制;抽取式阅读理解】原创 2021-08-23 23:29:06 · 1056 阅读 · 0 评论 -
NLP-阅读理解-2016:BiDAF(BiAttention+PointerNet)【片段抽取式任务;双向注意力机制】【最终输出答案所在片段的start、end索引】【SQuAD、CNNDaily】
NLP-阅读理解-2016:Bidirectional Attention Flow for Machine Comprehension原创 2021-08-14 19:13:39 · 1452 阅读 · 0 评论 -
NLU-预训练模型-2018:Bert(一)【“Masked LM”缺点:①预训练与微调不一致;②忽略了掩码位置间的依赖关系】【复杂度:O(n^2·d);n:输入序列长度(规定最长512)】
BERT是2018年10月由Google AI研究院提出的一种预训练模型.- BERT的全称是:**B**idirectional **E**ncoder **R**epresentations from **T**ransformers;- BERT在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人的成绩: 全部两个衡量指标上全面超越人类, 并且在11种不同NLP测试中创出SOTA表现. 包括将GLUE基准推高至80.4% (绝对改进7.6%), MultiNLI准确度达到86.7% (绝对改进5原创 2021-02-27 22:13:21 · 1813 阅读 · 0 评论 -
NLP-阅读理解-2019:改进QA系统对 “Question Paraphrasing(问题改述:用不同的词表达相同的意思)” 的鲁棒性【方案:通过“改述模型”进行数据增强】【数据集:SQuAD】
[《原始论文:《Improving the Robustness of Question Answering Systems to Question Paraphrasing》》](https://aclanthology.org/P19-1610.pdf)# 一、概述这篇论文主要是解决模型的鲁棒性,提出了两个测试集,最后通过实验证明(数据增强),能够在提出的两个数据集上得到比较好的结果。---------参考资料:[彭伟优快云:Improving t原创 2021-08-14 19:18:26 · 279 阅读 · 0 评论