【论文笔记】QANET:Combining Local Convolution With Global Self-attention for Reading Comprehension

目录

 

1. 简要介绍

2. 模型

3. data augmentation by backtranslation

4. 实验


​​​​​​​

1. 简要介绍

模型创新点:

(一)移除了RNN,核心就是卷积 + self-attention。这样使得训练更快,相应地模型能使用更多的训练数据。Convolution capture the local structure of context(local interactions), self-attention models global interactions。两者相辅相成,不可替代。

(二)使用了辅助的数据增强技术来提高训练数据,数据来自MT模型的back-translation。

 

QANet首先达到又快又精确,并且首先把self-attention和convolution结合起来。

QANet结构广泛使用convolutions和self-attentions作为encoders的building blocks,然后分别encode query和context,然后使用standard attentions学习到context和question之间的interactions,结果的representation再次被encode,然后最后decode出起始位置的probability。

 

组件分析

  1. convolution: local structure
  2. self-attention:global interaction
  3. additional context-query attention:

  它是standard module,从而建立query-aware context vector

 

QANet结构

主要包括5个组件:input embedding layer,a embedding encoder layer, context-query attention layer, a model encoder layer, an output layer.

与其他MRC模型不同的是:所有embedding和model encoders只使用conv和sefl-attention;

 

创新的辅助的data augmentation技术:从原始英文翻译为法语后,再翻译回英语,这样不仅提高了训练实例的数量,更提高了措辞多样化。英语翻译为法语后,通过beam decoder,生成k句法语翻译,然后法语翻译再通过beam decoder变回英语就获得了k^2句paraphrases。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值