mmseg4j 中文分词 1.5 版发布

mmseg4j 1.5 版本发布,采用搜狗词库,提升了分词效率,simple算法分词速度达1100kb/s,complex算法为700kb/s。新版本在程序优化方面做了改进,提高了40%的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

经过几天的开发与调试,新版的 mmseg4j 可以发布了。定为1.5版,是因为变动比较大。

mmseg4j 1.5变更:

[list]
[*]
使用 sogou 词库,是从 [url]http://www.sogou.com/labs/dl/w.html[/url] ,下载的,然后转换下(一行一词)。
[*]把chars.dic文件放到jar里, 我们不需要关心它,当然你在词库目录放这个文件可能覆盖它。
[*]最长匹配遍历调整(基本不受长词的影响)
[*]优化了程序,除去没有必要的数组复制等,性能提升40%
[*]ant 在jdk 1.5 下也可以编译(上一版本用了Collections二分查找)
[/list]
说明:

1、sogou 词库,不是用官方的文件,因为官方的文件有词频等信息,加载比较慢。就把这些信息去了,转换了下,一行一词,并且转换为UTF-8的文件,目前sogou词库有15W多。

2、把上一个版本的 chars.dic 文件隐藏在jar里,这个文件我们基本不需要关心的。如果想自定义,可以修改并把它放到词库目录中覆盖默认的。

3、1.5版做了一些优化,mmseg4j-1.5 版的分词速度simple算法是 1100kb/s左右、complex算法是 700kb/s左右,(测试机:AMD athlon 64 2800+ 1G内存 xp)。经测试是 complex 比IK, MIK, je要快,没 paoding快(900Kb/s左右),simple方式比paoding快。

4、其它:词库默认在./data目录下的words.dic文件,也可以指定其它目录,如

Analyzer analyzer = new ComplexAnalyzer("./sogou");



5、solr中的使用方式没变,请看:[url=http://chenlb.iteye.com/blog/353334]中文分词 mmseg4j[/url]。

mmseg4j 可以到 [url=http://code.google.com/p/mmseg4j/]google code[/url]下载。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值