[EMNLP21-findings] BERT might be Overkill: Biomedical Entity Linker based on ResCNN 阅读笔记

BERT might be Overkill: A Tiny but Effective Biomedical Entity Linker based on Residual Convolutional Neural Networks [pdf]

  • 论文状态:被EMNLP21-findings接收
  • 作者:Tuan Lai, Heng Ji, ChengXiang Zhai
  • TL;DR: 本文用ResCNN取代传统的BERT基础模型做Biomedical Entity Linking,可以取得相近的效果并大量减少参数和计算时间.

1. Motivation

作者做了2个预实验,发现当输入的文本被打乱或者BERT的attention机制的window size被缩减之后,实体链接的效果并没有下降太多.
在这里插入图片描述

由此,作者认为对于Biomedical Entity Linking任务,local的上下文信息比global的信息更重要,于是就采用了对local信息捕捉能力强的ResCNN来建模.

2. Contribution

  • 发明了一种简单且有效的Biomedical Entity Linking模型:ResCNN Entity Linker
  • 证明了对于某些任务,BERT的过大参数量可能是没用的

3. Model

作者用于当做文本encoder的ResCNN,主要有:

  • 采用GLoVe, 固定参数不变的token embedding层
  • 由CNN模块构成的,且采用残差连接的encoding层
  • 池化层:尝试了Max Pooling 与Self-Attention Pooling

4. Experiments

在5个主要的entity linking数据集上做了测试,GPU速度比SAPBERT快3-4倍,Top-1 Accuracy效果差不多.

5. Key takeaways

  • 对于某些任务,BERT的过大参数量可能是没用的
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值