中文文本分类主要内容梳理

本文主要对中文文本分类的解决方法进行一个大致梳理,并不展开介绍和讨论。

一、分词

中文与英文不同,单词之间没有天然的空格,所以需要使用一定的方法将词语分开,且分词效果对最终的分类效果影响非常大。现将主要的分词方法归纳为以下几类:

1、基于词典匹配的方法

如正向最大匹配,反向最大匹配,双向最大匹配等方法。

2、基于统计的方法

比如HMM和CRF

3、统计和词典匹配相结合的方法

二、提取特征

主要是TF-IDF

三、文本表示

1、bag of words

缺点:

没有考虑词与词之间的关系,每个词之间相互独立。

数据维度太高  

2、Word Embedding

word embedding其实就是词语到实数空间的一个映射,解决了文本的表示问题。这个映射首先是个单射,然后是structure-preserving的。word embedding与bag of words相比,得到的矩阵维度更小,且词与词之间不是完全没有关系的。更符合实际情况。

四、深度学习文本分类

深度学习的文本分类模型,与传统的文本分类模型相比,最大的特点是没有将整个分类过程分为特征工程和分类器两个部分,而是端到端解决问题。

CNN、RCNN





评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值