python调用hanlp分词包手记

python调用hanlp分词包手记

 

Hanlp作为一款重要的分词工具,本月初的时候看到大快搜索发布了hanlp的1.7版本,新增了文本聚类、流水线分词等功能。关于hanlp1.7版本的新功能,后面有使用的到时候在给大家分享。本篇分享一个在python里调用hanlp分词包的过程文章,供需要的朋友参考学习交流!以下为文章内容:

 

1.在python下安装pyhanlp

sudo pip install pyhanlp

详见 pyhanlp官方文档

 

2.pyhanlp的一些使用方法

1)Hanlp.segment的使用

from pyhanlp import *

print HanLP.segment("今天开心了吗?")

#输出:[今天/t, 开心/a, 了/ule, 吗/y, ?/w]

(2) 其它 API函数的使用。

pyhanlp里已经含有以下这些功能了,可以直接调用)

1  - # API列表

2 CustomDictionary= LazyLoadingJClass( 'com.hankcs.hanlp.dictionary.CustomDictionary' )

3 HanLP = SafeJClass( 'com.hankcs.hanlp.HanLP' )

4 HanLP.Config = JClass( 'com.hankcs.hanlp.HanLP$Config' )

5 PerceptronLexicalAnalyzer= SafeJClass( 'com.hankcs.hanlp.model.perceptron.PerceptronLexicalAnalyzer' )

6 DoubleArrayTrieSegment = SafeJClass( 'com.hankcs.hanlp.seg.Other.DoubleArrayTrieSegment' )

7 AhoCorasickDoubleArrayTrie = SafeJClass( 'com.hankcs.hanlp.collection.AhoCorasick.AhoCorasickDoubleArrayTrie' )

8 IOUtil = SafeJClass( 'com.hankcs.hanlp.corpus.io.IOUtil' )

9 TraditionalChineseTokenizer=SafeJClass( 'com.hankcs.hanlp.tokenizer.TraditionalChineseTokenizer' )

 

调用方法

analyzer=PerceptronLexicalAnalyzer()

a =analyzer.analyze("今天开心了吗?")

print a

 

3.其它更多的功能的实现。

①  比如繁体分词,自动生成摘要这些 hanlp能实现的,但不在以上API函数里面的,我们可以通过以下方法。

②  首先要在 “../pyhanlp/init.py”pycharm文件下通过jclass语句引入更深类路径。比如(我引入的是中文繁体分词这个API函数)

③  TraditionalChineseTokenizer=SafeJClass('com.hankcs.hanlp.tokenizer.TraditionalChineseTokenizer')

④  然后就可以直接调用了,真的超级棒。

⑤  print TraditionalChineseTokenizer.segment('三華裔獲得傑出青年獎‘)

⑥  #输出:[三/m, 華裔/n, 獲得/v, 傑出青年/nz, 獎/n]

⑦  -其它更多的API函数的路径请参考java原代码。

---------------------

作者:小傻子 kkk

 


来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/31524777/viewspace-2286462/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/31524777/viewspace-2286462/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值