最近适用了这五款分词工具,光是下载安装就踩了很多坑,特别是pyltp和hanlp,装到我怀疑人生。 以下是整理的安装过程和注意事项。 希望能给大家提供些帮助。 目录 一、Nlpir 第一步:下载工具。 第二步:下载后,解压,按如下顺序进入目录。 第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。 二、 Pyltp 第一步:下载安装Pyltp。 第二步:下载模型。 第三步:使用基本组件。 三、 Jieba 第一步:pip安装,指令为 第二步:基于python中jieba包的中文分词中详细使用。 四、 Hanlp 第一步:下载Hanlp 。 第二步:在eclipse里导入项目。点开下图文件夹,即可使用Hanlp各个功能。 五、 Snownlp 第一步:安装。 第二步:使用。 一、Nlpir 第一步:下载工具。 下载地址 NLPIR工具每七天要更新一次License, 去原项目(原项目地址点这)下载下面的文件覆盖源文件里的License文件。 第二步:下载后,解压,按如下顺序进入目录。 按自己电脑版本选择进入win32或win64。 打开NIPIR-Parser.exe 第三步:打开工具,可以看到有精准采集、文档转换、批量分词等功能。具体使用方法可参考右下角“使用手册”。