[论文笔记]AAAI-2021-Continual Learning for Named Entity Recognition

[论文笔记] 2021-AAAI-Continual Learning for Named Entity Recognition

0 写在前面

什么是持续学习?

我们人类有能够将一个任务的知识用到另一个任务上的能力,学习后一个任务时也不会忘记如何做前一个任务。这种能力叫持续学习 (continual learning/ life-long learning) 总结为两点:

  • 如何能把之前任务的经验用上,使得更快更好的学习当前任务;
  • 学习当前任务时,不会忘记之前已经学会的任务。

Introduction

Motivation

  • 一些真实场景下,需要经常引入新的实体类型

    举例语音助手Siri,

  • 当存储限制或安全问题限制访问时,为新的实体类型标注新的数据集代价昂贵,甚至不可能

    1. 原始的训练数据可能不再提供

    2. 原始的训练数据也不一定包含足够数量的新的实体类型

    思路
    • 为模型应该识别的所有实体注释一个新的数据集

      ​ 随着实体类型的增加,为所有实体类型标注新的数据集不切实际且容易出错

    • 仅为新的实体类型进行标注一个新的数据集,并结合持续学习,以此数据来更新模型

      ​ 容易受到以前实体类型的灾难性遗忘

      所以寻求让现有的NER模型的知识传授给一个新的模型

      • 自训练

      确实只用标新的实体类型了,但是旧模型的误差被传播到了新的模型[1]^{[1]}[1]中,而没有考虑到旧模型预测的不确定性可以帮助新模型更好的了解旧实体[2]^{[2]}[2]

      [1] 自训练是用能识别旧实体的模型去标注新数据集中旧实体,这是hard label,旧模型也不是百分百准确的,旧模型的误差被传播到了新的模型中就是说的这个问题

      [2] 这种不确定性是指soft label 取代one-hot

      • 知识蒸馏

      采用KD是为了避免以前实体类型的灾难性遗忘,而不是为了压缩模型

      为了学生模型和教师模型的行为相似,学生模型被鼓励学习教室模型的输出概率分布,而不是标签

contribution

  • 将CL技术应用到了NLU领域,以逐步学习NER的新的实体类型
  • 方法可以是模型能够持续学习新的实体类型而不失去识别旧实体类型的能力
  • 以半监督策略取得与完全监督设置相当的结果

Method

符号定义

最初已经训练好的模型为MiM_iMi,可识别的实体类型有Ei={ e1,…,en}E_{i}=\left\{e_{1}, \ldots, e_{n}\right\}Ei={ e1,,en}

我们想要训练一个新的模型Mi+1M_{i+1}Mi+1,以期望识别新的实体类型Enew ={ en+1,en+2,…,en+m}E^{\text {new }}=\left\{e_{n+1}, e_{n+2}, \ldots, e_{n+m}\right\}Enew ={ en+1,en+2,,en+m}和旧的实体类型EiE_iEi

我们仅标注一个新的数据集DnewD^{new}Dnew中的新实体类型EnewE^{new}Ene

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

simpsun

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值