仅以此贴记录一下在 Mac 上安装各类包的血路。
Stanfordcorenlp 分词与词性标注包
应用:用于文本挖掘的一个分词包。
载体:Jupyter Notebook
安装过程:
- 安装接口,打开终端,输入:
pip install stanfordcorenlp
- 安装 Java ,去官网挑一个版本
- 从 https://stanfordnlp.github.io/CoreNLP/download.html 上下载coreNLP3.9.x 与 Chinese xxx-models.jar 文件
- 将 coreNLP3.9.x 解压,将 Chinese xxx-models.jar 文件文件命名为stanford-chinese-corenlp-2018-10-05-models.jar,并将 .jar 文件拖入解压后的 coreNLP3.9.x
- 将 coreNLP3.9.x 重命名为 stanford-corenlp-full-2018-10-05
- 使用 Stanfordcorenlp 模块,打开终端,输入:
sudo jupyter notebook --allow-root
如果直接用 jupyter noteboo