安装
先安装java
yum -y install java-1.8.0-openjdk
github https://github.com/hankcs/pyhanlp
conda install -c conda-forge jpype1
pip install pyhanlp
使用命令 hanlp segment 进入交互分词模式,会从github上自动下载data数据,会比较慢。可以停止命令,然后手动下载data-for-1.7.4.zip 大约640M 到pynlp包文件夹的static目录下,再次执行hanlp segment命令时,会自动解压压缩包到 /static/data 文件夹,而不需要重新下载该文件。

切词
from pyhanlp import *
content = "现如今,机器学习和深度学习带动人工智能飞速的发展,并在图片处理、语音识别领域取得巨大成功。"
print(HanLP.segment(content))
# 执行结果如下:
[现如今/t, ,/w, 机器学习/gi, 和/cc, 深度/n, 学习/v, 带动/v, 人工智能/n, 飞速/d, 的/ude1, 发展/vn, ,/w,
并/cc, 在/p, 图片/n, 处理/vn, 、/w, 语音/n, 识别/vn, 领域/n, 取得/v, 巨大/a, 成功/a, 。/w]

本文介绍如何使用HanLP进行中文分词、词性标注、关键词提取、短语提取及依存句法分析等自然语言处理任务,通过实例演示了HanLP的强大功能。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



