从【
https://github.com/medcl/elasticsearch-analysis-ik/releases
】下载【
elasticsearch-analysis-ik-1.6.0.zip】文件。
里面值包含了代码,需要执行【mvn package】进行编译打包,生成【elasticsearch-analysis-ik-1.6.0.jar】文件。
拷贝【target/releases/elasticsearch-analysis-ik-1.6.0.zip】中的文件到【<ES_ROOT>/plugins/ik】目录中。
拷贝【elasticsearch-analysis-ik-1.6.0.zip】中的【config/ik】中的文件到【<ES_ROOT>/config/ik】目录中。
重启 ElasticSearch 即可。
分词器:
IK 包含两类分词器:
- ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合;
- ik_smart: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”。
不同项目可以不同选择,个人是推荐使用【
ik_smart】,相对来说分出来的词更符合直观感受。
使用样例:
1. 先创建名叫【index】的索引:
2. 创建名为【fulltext】的
类型
,并设定其使用【IK】分词器。这一步很重要,必须在往索引中添加数据前完成。
3. 往索引库中添加数据:
4. 查询测试:
查询语句:
查询结果:
参考:
- https://github.com/medcl/elasticsearch-analysis-ik
- 《Elasticsearch: The Definitive Guide》(电子书)
本文介绍如何安装并配置Elasticsearch的IK分词器,包括下载、编译、部署步骤及示例代码。展示了如何通过curl命令创建索引、设置映射、添加文档以及执行搜索。
1422

被折叠的 条评论
为什么被折叠?



