中文NER涨点神器!基于多元数据的双流Transformer编码模型

本文提出MECT模型,基于多元数据(字、词、汉字结构)的双流Transformer,用于提升中文命名实体识别(NER)性能。通过汉字的部首等结构信息,模型在多个中文NER数据集上取得显著效果,尤其是在小规模和多类别数据集上。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

4414f3b50eecabbfaa663c7b23f67e2e.gif

©PaperWeekly 原创 · 作者 | 宁金忠

学校 | 大连理工大学博士生

研究方向 | 信息抽取

本篇论文发表于 ACL 2021,作者聚焦于中文 NER 任务。近些年来,在模型中引入词汇信息已经成为提升中文 NER 性能的主流方法。已有的中文 NER 词增强方式主要通过 lattice 结构在模型中引入词汇的边界信息和词嵌入信息。现如今我们使用的汉字从古老的象形文字演化而来,汉字中包含的偏旁部首等结构可以代表某些含义。因此,本文的作者提出在模型中融合进汉字的结构信息(例如部首等)。

ea0a7023d32e30ca2b4a0128c7ddc468.png

论文标题:

MECT: Multi-Metadata Embedding based Cross-Transformer for Chinese Named Entity Recognition

论文链接:

https://aclanthology.org/2021.acl-long.121.pdf

bbc63ec3b05b7502fab5ce216fa5f9a2.png

中文词汇增强回顾

中文 NER 的词汇增强主要分为两条路线:

1. Dynamic Architecture:通过动态结构,在模型中注入词汇信息;

2. Adaptive Embedding:将词汇信息融合到 Embeding 中。

近些年来各大顶会上的中文 NER 词汇增强相关论文总结如下(参考博文 [1] ):

eee770711c7df49bbcbf221e7c5b3e35.png

其具体实现方法总结为:

6b672fc90bf616ca7070a3f5a1bd3b9d.png▲ 词增强NER模型简介

已有的词增强 NER 模型的性能如下图所示:

415fd54d6cb9bfa17efea5e78b164e48.png

▲ 模型实验结果(表中LEBERT使用的词表和预训练词向量与其他模型不同,结果在此处仅做参考,详情见论文)

6a87c26639de05daea6fcedce8d16342.png

论文方法介绍

文中作者的主要贡献为:

  • 在中文 NER 模型中使用了多元数据特征(字特征,词特征以及汉字的结构特征)。

  • 提出了一种能够将字特征、词特征和部首特征结合的双流(two-st

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值