
文本分类
文章平均质量分 88
一些非低资源、非基于图模型的文本分类
五月的echo
神的孩子全跳舞
展开
-
A Contrastive Learning Approach for Hierarchy Text Classification,ACL2022
IntroductionHierarchical Text Classification(HTC)是指文本标签之间存在层次结构文本分类任务。不同的标签之间存在的潜在关联会为分类提供正向指导。一般来说,HTC大致可以分为两类:为每个节点或级别构建分类器的局部方法,仅为整个图构建一个分类器的全局方法。本文提出一种用于层次文本分类的对比学习方法。Hierarchy guided Contrastive Learning (HGCLR)直接将分层嵌入到文本编码器中而不是单独地创建层次的结构。在训练过程中,HG.原创 2022-04-30 17:10:22 · 1593 阅读 · 2 评论 -
Co-attention network with label embedding for text classification,Neurocomputing2022
在本文中,试图通过进一步构造具有文本到标签注意的文本参与的标签表示来开发标签信息。为此,提出了一种带有标签嵌入的协同注意网络(CNLE),该网络将文本和标签共同编码到它们相互参与的表示中。通过这种方式,模型能够兼顾两者的相关部分。实验表明,在7个多分类基准和2个多标签分类基准上,我们的方法与现有的最先进的方法相比,取得了有竞争力的结果。考虑一个包含mmm个词的文本xxx以及包含ccc个标签的标签序列lll,目标是将二者的序列信息融合,得到标签增强的文本表示zx∣lz_{x|l}zx∣l以及文本增强的.原创 2022-03-29 19:37:12 · 1004 阅读 · 3 评论 -
Label-Specific Dual Graph Neural Network for Multi-Label Text Classification,ACL2021 finding
为了提取多标签分类中标签之间的高阶关联性,一些方法使用统计相关性。然而,基于统计的方法有如下缺点:从训练数据中获得的标签对之间的共现模式是不完整的和有噪声的(有的统计特征可能是训练集特有的);在全局中构建标签共现图,这可能会对罕见的标签相关性有偏倚;统计标签相关性可能形成长尾分布,即,一些类别非常常见,而大多数类别有很少的文档。为了解决上述问题,本文提出了一种新的标签特异性对偶图神经网络(LDGN),该网络利用类别信息从文档中学习标签特异性成分,并采用双图卷积网络(dual Graph Convolut.原创 2022-03-25 15:12:52 · 3780 阅读 · 3 评论 -
Enhancing Label Correlation Feedback in Multi-Label Text Classification via Multi-Task Learning
ACL2021 finding本文引入了一种新的多任务学习方法来增强标签相关反馈。首先利用一种联合嵌入(JE)机制来同时获取文本和标签的表示,并借助注意力机制对其进行增强。此外,提出了两个辅助的标签共现预测任务来提高标签相关学习:1)两两标签共现预测(Pairwise label Co-occurrence Prediction,PLCP)和2)条件标签共现预测(Conditional label Co-occurrence Prediction,CLCP),分别捕捉多标签之间的一阶相关性和高阶相关性。原创 2022-03-24 12:01:08 · 1307 阅读 · 0 评论 -
Label Confusion Learning to Enhance Text Classification Models,AAAI2021
将一个真正的标签表示为one-hot向量是训练文本分类模型的一个常见实践。然而,one-hot表示可能不能充分反映实例和标签之间的关系,因为标签通常不是完全独立的,而实例在实践中可能与多个标签相关。不充分的单热点表示容易使模型过度自信,从而导致模型的任意预测和模型过拟合,特别是对于混淆数据集(标签非常相似的数据集)或噪声数据集(标注错误的数据集)。虽然使用标签平滑(LS)训练模型可以在一定程度上缓解这一问题,但仍然无法捕捉标签之间的真实关系。在本文中,我们提出了一种新的标签混淆模型(LCM)作为当前流行的.原创 2022-03-23 13:54:28 · 1121 阅读 · 0 评论 -
Merging Statistical Feature via Adaptive Gate for Improved Text Classification,AAAI2021
文本分类研究主要集中在仅利用文本输入来训练分类器,或通过引入外部知识(如手工词汇和领域知识)来增强语义特征。相比之下,语料库的一些固有的统计特征,如词频和标签分布,没有得到很好的利用。与外部知识相比,统计特征具有确定性,自然与相应的任务相容。在本文中提出了一种自适应门网络(AGN)来选择性地利用统计特征巩固语义表示。AGN可以与现有的文本分类模型进一步结合,并提升模型的性能。MethodologyGlobal information为了利用与标签相对的单词的频率等固有信息,本文首先提出了一个ter.原创 2022-03-23 11:27:17 · 1239 阅读 · 1 评论 -
Knowledge-Aware Leap-LSTM: Integrating Prior Knowledge into Fast LSTM for Long Text Classification
AAAI2021本文主要用于改进用于处理长本文的LSTM,降低LSTM中step-to-step这种传播方式中的时间复杂度。一个非常直观的念头是跳过不重要的单词,不进行门计算即可。本文在已有的Leap-LSTM的基础上引入外部知识,解决Leap-LSTM在跳过单词时对一些重要关键词的忽略的问题。Leap-LSTM首先,Leap-LSTM【Leap-LSTM: Enhancing Long Short-Term Memory for Text Categorization,IJCAI2019】根据当原创 2022-03-21 11:25:26 · 910 阅读 · 0 评论