关于分词有两个令人头痛的问题:一个是常用词,一个是标点符号。
如果使用jieba分词的,那么这两种‘符号’都会混杂在我们的结果中。
常用词可以使用停用词字典。而标点符号可以使用正则剔除,具体如下:
...
text = re.sub('\W*', '', file.readlines())
word_list = jieba.cut(text)
...
注:如果文件很大时,建议按行读取,逐行分词。
本文探讨了中文分词时遇到的两大难题:如何有效处理常用词及标点符号。针对这些问题,文章提供了实用解决方案,包括使用停用词字典过滤常用词,以及利用正则表达式剔除标点符号,确保分词结果的纯净度。
关于分词有两个令人头痛的问题:一个是常用词,一个是标点符号。
如果使用jieba分词的,那么这两种‘符号’都会混杂在我们的结果中。
常用词可以使用停用词字典。而标点符号可以使用正则剔除,具体如下:
...
text = re.sub('\W*', '', file.readlines())
word_list = jieba.cut(text)
...
注:如果文件很大时,建议按行读取,逐行分词。
7620

被折叠的 条评论
为什么被折叠?