
分词器
lhj_sjtu
爱科研,爱技术,爱生活的工科女,但也是萌妹子!!!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
各种基于es的分词插件
Field.Store.YES:存储字段值(未分词前的字段值) Field.Store.NO:不存储,存储与索引没有关系 Field.Store.COMPRESS:压缩存储,用于长文本或二进制,但性能受损 jieba分词(结巴分词作为es的插件:)https://github.com/hongfuli/elasticsearch-analysis-jieba按照这个...原创 2018-03-23 11:44:46 · 2732 阅读 · 0 评论 -
IK分词器原理
IKAnalyzer是一个开源的,基于Java语言开发的轻量级的中文分词语言包,它是以Lucene为应用主体,结合词典分词和文法分析算法的中文词组组件。从3.0版本开始,IK发展为面向java的公用分词组件,独立Lucene项目,同时提供了对Lucene的默认优化实现。以下这篇博客是我在通读IK分词代码后对IK分词的理解,如果有什么地方出现纰漏请大家指正。回到最初如果让我自己在看IK分词之前自己写...转载 2018-03-21 10:15:35 · 3749 阅读 · 0 评论