- 博客(32)
- 收藏
- 关注
原创 损失test1
最近,随着预训练的基于transformer的语言模型的巨大成功和BERT一样,它们被广泛用于生成句子表示。一种直接的方法是利用[CLS]嵌入(Devlin等人,2019)或在类bert预训练语言模型的最后几层应用均值池(Reimers和Gurevych, 2019)。然而,未经进一步微调的预训练语言模型的句子嵌入不能很好地捕获句子的语义,有时甚至不如GloVe 等非上下文化嵌入。为了对句子之间的正负成对关系进行建模,我们首先需要生成句子表征,并将它们分组为正负对。然后将这些对输入到训练目标中进行优化。
2024-04-07 18:24:52
179
原创 每天读一篇文献
本文提出了一种基于知识增强的预训练模型作为语义表示层,在特征提取层采用和改进的融合模型。实验表明,该模型在。在多标签分类任务中的数据不平衡问题中,利用实现模型更快收敛的目标。1、针对实体关系抽取流水线化的问题,采用基于序列标注的联合方法进行实体关系抽取。2、采用知识增强的ERNIE预训练模型进行文本语义表示。联合学习方法。
2023-05-08 22:21:07
183
原创 每天读一篇文献14--GraphRel: Modeling Text as Relational Graphs for Joint Entity andRelation Extraction
论文阅读
2023-04-13 10:22:42
328
原创 每天读一篇文献13--DGCL: Distance-wise and Graph Contrastive Learning for medicationrecommendation
DGCL: Distance-wise and Graph Contrastive Learning for medicationrecommendation
2023-03-24 14:54:26
439
1
原创 每天读一篇文献12--A deep learning method to detect prescription and use disorder from electronic health
本研究的目的是开发一种结合深度学习的方法,利用结构化和非结构化EHR数据预测某类药物处方和use disorder。
2023-03-23 23:31:57
142
原创 每天读一篇文献11--Information Extraction from the Text Data onTraditional Chinese Medicine
Information Extraction from the Text Data onTraditional Chinese Medicine: A Review on Tasks, Challenges, and Methods from 2010 to 2021
2023-03-22 22:17:34
175
原创 每天读一篇文献10--Rediscovery of CNN’s Versatility for Text-based Encoding of Raw Electronic Health Records
Rediscovery of CNN’s Versatility for Text-based Encoding of Raw Electronic Health Records重新发现CNN对原始电子健康记录文本编码的多功能性
2023-03-21 21:07:09
64
原创 每天读一篇文献9--UniHPF : Universal Healthcare Predictive Framework with Zero Domain Knowledge
UniHPF:零领域知识的通用医疗预测框架
2023-03-21 12:06:45
77
原创 每天读一篇文献8--Contextualized Medication Information Extraction Using Transformer-based Deep Learning Arc
Contextualized Medication Information Extraction Using Transformer-based Deep Learning Architectures基于Transformer深度学习架构的情境化用药信息抽取
2023-03-17 22:44:14
283
原创 每天读一篇论文7--MEDBERT.de: A Comprehensive German BERT Model for the Medical Domain
MEDBERT.de: A Comprehensive German BERT Model for the Medical Domain一个全面的德国医学领域的BERT模型
2023-03-16 23:16:11
280
原创 每天读一篇论文6--Optimizing Deep Learning Model Parameters with the Bees Algorithm for Improved Medical Tex
Optimizing Deep Learning Model Parameters with the Bees Algorithm for Improved Medical Text Classification改进医学文本分类的Bees算法优化深度学习模型参数
2023-03-15 17:19:27
127
原创 每天读一篇论文5--MWE as WSD: Solving Multiword Expression Identification with Word Sense Disambiguation
MWE as WSD: Solving Multiword Expression Identification with Word Sense Disambiguation利用词义消歧解决多词表达识别问题
2023-03-14 21:57:09
207
原创 每天读一篇论文4
ICL-D3IE: In-Context Learning with Diverse Demonstrations Updating for Document Information Extraction面向文档信息抽取的多样演示更新上下文学习
2023-03-10 15:21:58
109
原创 每天读一篇论文3--Structure Pretraining and Prompt Tuning for Knowledge Graph Transfer
Structure Pretraining and Prompt Tuning for Knowledge Graph Transfer面向知识图谱迁移的结构预训练和快速调优
2023-03-09 23:12:18
484
3
原创 每天读一篇论文2--Document-level Relation Extraction with Cross-sentence Reasoning Graph
Document-level Relation Extraction with Cross-sentence Reasoning Graph基于跨句推理图的文档级关系抽取
2023-03-08 21:54:20
546
原创 每天读一篇论文1--ANCIENT CHINESE WORD SEGMENTATION AND PART-OF-SPEECH TAGGING USING DISTANT SUPERVISIO
we propose a novel augmentation method of ancient Chinese WSG and POS tagging data using distant supervision over parallel corpus.我们提出了一种基于平行语料远程监督的古汉语WSG和词性标注数据扩充方法。
2023-03-07 23:27:44
163
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人