《BERT for Coreference Resolution: Baselines and Analysis》笔记

综述

  • 此论文采用的Bert-large模型比其他模型(ELMO和BERT-base),在区分相关不同的实体(总裁和首席执行官)上比较出色,模型在document-level context, conversations和mention paraphrasing(提及释义)上需改进。

介绍

  • 对比了以前基于Bert的模型,在GAP和OntoNotes上改进明显
  • 有两种改进c2f-coref模型的方法:独立变量和重叠变量
  • Bert-large使用更大的上下文窗口(384),但是在更长的上下文窗口(512)中表现较差
  • 重叠向量企图用更大窗口来改进的失败表明使用更大的窗口进行预训练可能无法将一个下游任务( downstream task)转换为有效的远程特征(effective long-range features),同时,更大的模型加剧了广度的记忆密集性
    在这里插入图片描述

要解决的问题

  • 区分相关但不同的实体,困难在于区分它们需要真实世界的案例(在现实中有关系)
  • 代词建模困难

解决方式

  • 采用高阶共指模型(c2f-coref)
  • 在c2f-coref中用Bert transformer替换 LSTM-based encoder
  • 数据集:GAP和OntoNotes
  • 独立变量:用不重叠的段来做bert的实例分别做token
  • 重叠变量:用重叠的段分别编码,最后放在一起做token
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值