
论文笔记
文章平均质量分 93
厚积而薄发
xuzf-cs
BIT-Worker 开源朝圣路上的信徒
展开
-
在双曲空间进行细粒度实体分类
双曲空间的性质使其能够较好地嵌入层次结构,作者研究了在双曲空间中嵌入细粒度实体类别的方法原创 2022-03-16 20:36:56 · 2107 阅读 · 1 评论 -
Improving Entity Linking by Modeling Latent Relations between Mentions
Improving Entity Linking by Modeling Latent Relations between Mentions论文地址:https://aclanthology.org/P18-1148/代码地址:https://github.com/lephong/mulrel-nelAbstract实体链接(EL)系统经常利用文档中提及之间的关系(如共指关系)来决定链接决策是否兼容。与以往依靠监督系统或启发式预测这些关系的方法不同,作者在神经 EL 模型中将关系视为隐变量。在端到端原创 2021-12-17 16:32:27 · 884 阅读 · 0 评论 -
Combining Word and Entity Embeddings for Entity Linking
Combining Word and Entity Embeddings for Entity Linking论文地址:https://perso.limsi.fr/bg/fichiers/2017/combining-word-entity-eswc2017.pdf (ESWC 2017)1 Abstract论文针对 EL 的第二个阶段 candidate selection 提出了新的方法——在同一空间中,联合学习文本中的 word 和知识库 entity 的嵌入表示。 candiadate se原创 2021-08-19 23:09:45 · 428 阅读 · 0 评论 -
必读论文|实体链接经典论文推荐47篇
实体链接(entity linking)的任务是识别出文本中的提及(mention) 并建立起到知识库实体(entity)的链接,将非结构化数据连接到结构化数据。实体链接利用知识库中大量实体的丰富信息,实现各种语义应用,如实体链接是很多信息抽取(IR)和自然语言理解(NLU)pipeline 中的重要组件,因为它能够消除文本中 mention 的歧义,并确定 mention 的正确含义。本文按照 2020 年综述 “Neural Entity Linking: A Survey of Models B.原创 2021-08-18 09:43:16 · 1817 阅读 · 15 评论 -
BERT 论文解读
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding论文地址:https://arxiv.org/abs/1810.04805代码地址:https://github.com/google-research/bertAbstractBERT (Bidirectional Encoder Representations from Transformers) 在未标记的文本上进行预训练,调节各个层的原创 2021-08-10 17:18:08 · 1739 阅读 · 0 评论 -
CHOLAN:一种模块化实体链接方法
论文链接:https://arxiv.org/abs/2101.09969 (EACL 2021)代码实现:https://github.com/ManojPrabhakar/CHOLANABSTRACT本文作者提出了实现在知识库上进行端到端实体链接的模块化方法——CHOLAN,该模型包含由两个 transformer-base model 构成的 pipeline。第一个 transformer 用于提取句子中的 mention,第二个 transformer 获取 mention context原创 2021-08-09 15:12:31 · 1092 阅读 · 8 评论 -
Scalable Zero-shot Entity Linking with Dense Entity Retrieval
Scalable Zero-shot Entity Linking with Dense Entity Retrieval论文链接:https://arxiv.org/abs/1911.03814代码地址:https://github.com/facebookresearch/BLINK日期:EMNLP 2020ABSTRACT论文提出了一种面向零样本学习的可扩展实体链接方法。该方法思路简单(不需要复杂的实体结构和人工设计数据)却在零样本和非零样本的数据集上取得了很大的进步。主要思路为将实体链接原创 2021-08-01 21:22:04 · 1076 阅读 · 2 评论 -
XLORE2:大规模跨语言知识图谱构建与应用
论文地址:XLORE2: Large-scale Cross-lingual Knowledge Graph Construction and ApplicationABSTRACTXLORE2 有423974个跨语言链接。相比于XLORE增加了更多的跨语言知识链接、跨语言属性匹配、细粒度类型推断。构建了实体链接系统 XLink 证明了XLORE2的有效性。1 介绍基于Wikipedia,有DBpedia、YAGO、BabelNet等YAGO:同一知识的跨语言语义统一性DBpedia:跨语言.原创 2021-07-30 22:54:31 · 3070 阅读 · 0 评论 -
文本匹配深度学习模型总结(2020)——Pretrain、Poly-encoders、ColBERT
探究2020年顶会论文中,基于深度学习的文本匹配模型的改进方法,介绍了 Pre-training tasks for embedding-based large-scale retrieval、Poly-encoder、ColBERT 的核心思想原创 2021-03-15 01:07:00 · 4424 阅读 · 2 评论 -
Learning Human Pose Estimation Features with Convolutional Networks
Learning Human Pose Estimation Features with Convolutional NetworksICLR 2014arXiv 原文链接Abstract作者介绍了一种使用多层卷积网络结构的人体姿势估计模型,以及可学习低层特征和高层弱空间模型的改进的学习方法。文章主要贡献:首次展示深度学习模型能很好地完成无约束的姿态估计任务。发现在仅覆盖图像上几个像素的区域上就可以学习强大的低级特征检测器作者以 bottom-up 模型和弱空间模型超过了当时最佳模型1原创 2020-09-07 19:46:20 · 717 阅读 · 1 评论 -
Bipartite Flat-Graph Network for Nested Name Entity Recognition
来源:ACL2020论文链接:https://arxiv.org/abs/2005.00436概述本文提出了一种新的二部平面图网络(BiFlaG)用于嵌套命名实体识别(NER) ,该网络包含两个子图模块: 最外层实体的扁平 NER 模块和内层实体的图模块。 采用双向 LSTM (BiLSTM)和图卷积网络(GCN)联合学习扁平实体及其内部依赖关系。不同于以往仅考虑信息从最内层到外层(或从外层到内层)的单向传递的模型,本文模型有效地捕获了它们之间的双向交互。 作者首先使用扁平 NER 模块所识别的实体.原创 2020-06-29 20:23:13 · 1655 阅读 · 7 评论