- 博客(2)
- 收藏
- 关注
原创 mini anaconda3安装
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.shchmod +x Miniconda3-latest-Linux-x86_64.sh./Miniconda3-latest-Linux-x86_64.shsource .bashrcconda create --name python36 python=3.6conda activate python36
2021-01-09 13:14:54
477
原创 中文分词原理及分词工具介绍
中文分词学习记录中文分词实现方法基于字符串匹配的分词方法基于理解的分词方法基于统计的分词方法工具介绍结巴分词SnowNLP北大PKUSEG中文分词首先,我们将介绍中文分词的思想和方法。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程(来自百度百科)。中文分词(Chinese Word Segmentation)指的是将一串串汉字序列切分为单个的字,继而重新组合为词的过程。中文分词工具有很多,当下国内比较流行的中文分词工具有盘古分词、Yaha分词、jieba分词、SnowNLP、清华THUL
2020-05-26 21:44:01
1534
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人