使用python对中文文本进行分词

何为中文分词,指的是将一个汉字序列切分成一个个单独的词。

这里我们推荐使用jieba分词,它是专门使用python语言开发的分词系统,占用资源较少,常识类文档的分词精度较高。

我们可以去网上下载jieba的压缩包,然后解压,进入目录,找到setup.py这个文件,然后可以可以使用下面两种半自动方式去安装

方式一: 进入cmd命令窗口,输入: python setup.py install jieba

方式二: 进入cmd命令窗口,输入:pip install jieba

然后我们就可以进行下面的中文文本分词的操作了

首先我们把需要分词的文件train_corpus_small拷贝到项目中来:


然后我们创建一个demo3.py对其进行分词操作

# -*- encoding:utf-8 -*-
import sys
import jieba
import os
# 配置UTF-8的环境
reload(sys)
sys.setdefaultencoding('utf-8')
# 写入文件
def savef
使用`jieba`库对中文文本进行分词,以下是几种常见的使用方法: ### 精确模式 精确模式会将文本精确地切开,适合文本分析。使用`jieba.lcut()`函数可以实现精确模式分词,示例代码如下: ```python import jieba text = "我是一名学生" words = jieba.lcut(text) print(words) ``` ### 全模式 全模式会把文本中所有可能的词语都扫描出来,速度快但可能有冗余。使用`jieba.lcut(text, cut_all=True)`函数可以实现全模式分词,示例代码如下: ```python import jieba text = "我是一名学生" words = jieba.lcut(text, cut_all=True) print(words) ``` ### 搜索引擎模式 搜索引擎模式在精确模式的基础上,对长词再次切分,适合用于搜索引擎分词使用`jieba.lcut_for_search()`函数可以实现搜索引擎模式分词,示例代码如下: ```python import jieba text = "我是一名学生" words = jieba.lcut_for_search(text) print(words) ``` ### 添加自定义词汇 如果遇到一些特定的词汇,`jieba`库可能无法正确分词,这时可以使用`jieba.add_word()`方法添加新词,示例代码如下: ```python import jieba jieba.add_word("dzzhyk") text = "dzzhyk是一名学生" words = jieba.lcut(text) print(words) ``` ### 统计词频 可以结合`collections.Counter`类统计分词后的词频,示例代码如下: ```python import jieba from collections import Counter text = "我是一名学生,我喜欢学习,学习使我快乐" words = jieba.lcut(text) c = Counter() for word in words: if len(word) > 1: c[word] += 1 for (k, v) in c.most_common(): print(f"{k}: {v}") ```
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值