概述
在层次文本分类( Hierarchical Text Classification HTC)中,大多数研究都关注于提出新颖的模型结构,但我们偏向于找到一种高效的方法去增强baseline。首先将层次文本分类任务视为seq2seq问题,然后对它进行一个辅助性地自顶向下的分类任务,即从外部字典中找到所有层次类别中的文本定义,并将其映射到词向量空间作。将类别定义的embedding作为额外输入来对下一层进行预测,并使用一个修改后的束搜索。我们提出的这个方法,比以前那些方法表现更好,同时参数量更少。
介绍
比起普通的文本分类,层次文本分类由于要考虑不同层之间的节点关系,所以会更难一些。但无论是普通的文本分类还是层次文本分类,解决它们的大多数模型都有大量的参数并且需要额外的训练时间。在普通文本分类中,有一些研究不再对模型结构进行修改,而是使用一些额外的方法来提升模型效果。但层次文本分类中,还没有这方向的研究,最近提出的模型计算量依旧很大。作者就提出思考:怎样在低成本的计算代价下来进行改进?
本文的主要贡献:
1)提出了一个对于HTC的稳健模型,参数少并且训练时间短,遵守seq2seq的学习范式。
2)辅助任务的应用增强了模型在自下而上的预测任务中能力。
3)探讨了利用关于外部信息来对类的进行文本定义。
方法
seq2seq方法

提出一种新的层次文本分类方法,通过引入辅助任务和外部知识,有效提高分类效率。在WOS和DBpedia数据集上取得优秀成果。
最低0.47元/天 解锁文章
3299

被折叠的 条评论
为什么被折叠?



