论文阅读
文章平均质量分 82
fengshanghere
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
REPT: Bridging Language Models and Machine Reading Comprehension via Retrieval-Based Pre-training 阅读
发顺丰motivationPLM更注重原创 2021-06-10 20:45:31 · 451 阅读 · 0 评论 -
Using Adversarial Attacks to Reveal the Statistical Bias in Machine Reading Comprehension Models 论文
创新点无监督的电商生成评论摘要rating-wise and aspect-wise summaries from reviews.原创 2021-06-08 17:54:40 · 332 阅读 · 0 评论 -
Lattice-BERT 论文阅读
Motivation对于中文,字级别的信息不够,比如“老板”不是原创 2021-06-07 14:33:45 · 2158 阅读 · 0 评论 -
why machine reading comprehension model learn shortcuts 论文阅读
why machine reading comprehension model learn shortcuts 论文阅读创新点设计了两个数据集QWM,SpM量化分析模型学习shortcut trick的阶段,参数量,在shortcut、chanllenge问题的性能Motivationbenchmark上性能很好,但其实只学了shortcuts,现有数据集中很多问题是有shortcut可以解的。比如Q:When did the Scholastic journal come out?P:原创 2021-06-04 10:49:11 · 286 阅读 · 0 评论 -
论文阅读:Reducing Transformer Depth On Demand With Structured Dropout
Introduction这篇paper是做Transformer压缩的,但其实bert的核心也就是transformer,这篇paper的实验里也做了bert的压缩。作者的主要工作是提出了LayerDrop的方法,即一种结构化的dropout的方法来对transformer模型进行训练,从而在不需要fine-tune的情况下选择一个大网络的子网络。这篇paper方法的核心是通过Dropout来去从大模型中采样子网络,但是这个dropout是对分组权重进行dropout的,具体而言,这篇paper是l原创 2020-07-28 16:58:28 · 1248 阅读 · 0 评论
分享