- 博客(12)
- 收藏
- 关注
原创 SpanKL——基于跨度表示的增量 NER 模型
命名实体识别()是自然语言处理()中的核心任务,旨在从非结构化文本中识别并分类具名实体,例如等。随着深度学习的发展,NER 模型在准确性和效率上取得了显著进步。:序列标注方法(如 BIO 标注)无法有效处理嵌套实体。例如,在句子中:"New York"是一个地点(LOC)是一个组织(ORG):多个实体可能共享相同的文本跨度,传统序列标注难以同时对其进行正确分类。:在场景下,模型需要逐步学习新的实体类型,同时保持对旧实体类型的识别能力。然而,传统模型在学习新任务时,往往会遗忘旧知识。
2025-03-18 13:28:46
710
原创 Early Stopping——早停技术
也称为早停技术,是深度学习训练模型中的一个小trick。为了获得一个性能良好的深度学习模型,我们在训练模型的时候往往要确定一个超参数epoch,即应该遍历多少次训练数据集,那应该把epoch设置成多少呢?分为如下两种情况epoch 设置的过小:模型可能欠拟合,也就是模型可能无法很好的在训练集上学习到知识,导致模型在测试集上的效果不佳epoch 设置的过大:模型可能过拟合,即模型对数据中的噪声而非信号进行拟合,导致模型泛化能力不强,在训练集上效果同样不佳。
2025-03-11 16:15:59
251
原创 万字长文!成功复现ExtendNER——增量命名实体识别 SOTA 模型!
BERT是由谷歌在2018年提出的一种基于架构的预训练语言模型。它的核心创新在于采用双向编码机制,通过同时考虑词语的上下文信息,突破了传统单向语言模型的局限性。BERT的模型架构主要由多层编码器组成,能够捕捉长距离依赖关系和复杂的语义特征。Masked Language Model(MLM)和Next Sentence Prediction(NSP),使其在多种自然语言处理任务中表现出色,如文本分类、问答和命名实体识别等。这一技术的出现极大地推动了NLP领域的发展。
2025-03-08 23:23:57
687
1
原创 深度学习中常见的损失函数介绍
损失函数是深度学习模型训练的重要组成部分,选择合适的损失函数可以显著提升模型性能。本文介绍了均方差损失函数、交叉熵损失函数和KL散度的基本概念、应用场景及代码实现,希望读者能够通过本文对损失函数有更深入的理解,并在实际项目中灵活运用。
2025-03-05 10:20:23
277
原创 基于 BERT 的命名实体识别(NER)项目实践
本项目基于 BERT(Bidirectional Encoder Representations from Transformers)模型,利用 PyTorch 框架,在 CoNLL2003 数据集上实现了一个命名实体识别系统。该项目旨在为初学者提供一个完整的 NER 实践案例,涵盖数据预处理、模型构建、训练与评估等关键环节,帮助读者理解 NER 任务的核心概念和深度学习在 NLP 任务中的应用。本项目通过 BERT 和 PyTorch 实现了一个基础的 NER 系统,适合初学者学习和实践。
2025-02-25 11:17:57
464
原创 XJTUSE-项目管理第七章人力资源管理
人力资源管理是将组织内的所有人力资源作适当的获取,维护,激励以及活用与发展的全部管理过程与活动包括计划人力资源管理、组建项目团队、建设项目团队、管理项目团队。
2024-11-20 11:02:34
1561
原创 Learn and Review模型深度解析
传统的命名实体识别方法(NER)将提及的类别固定地分为预定义好的一些实体类型,但是在许多显示场景中,例如Siri,需要不断的识别新的实体类型。为了解决这个问题,我们在NER中引入了continual learning。然而,现有的方法依赖于任务之间的相关性,容易产生任务与类型识别之间的混淆现象。
2024-11-20 10:23:58
721
原创 北京大学计算语言研究所提出了“Learn and Review”的模型
本文详细介绍了一种名为“Learn and Review”的模型,该模型通过复习合成样本来增强命名实体识别(NER)的持续学习能力。在新数据的涌现和旧知识的遗忘之间寻找平衡是持续学习中的一大挑战,而“Learn and Review”模型通过创新的知识蒸馏和复习机制,成功地解决了这一问题。实验证明,该模型在新旧实体类型的识别性能上均有显著提升。
2024-11-12 22:00:12
894
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人