安装
下载
执行命令
wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.4.0/elasticsearch-analysis-ik-7.4.0.zip
或浏览器直接输入地址

解压
在es安装目录的plugin文件夹下创建一个ik文件夹,将下载好的zip包拷贝到ik文件夹下
执行解压命令:
unzip elasticsearch-analysis-ik-7.4.0.zip
测试
重启es
测试是否安装成功,这里使用的是kibana
POST _analyze
{
"analyzer": "ik_max_word",
"text":"默认分词器"
}

使用
使用kibana创建映射
PUT /dangdang
{
"mappings": {
"properties":{
"name":{
"type":"text",
"analyzer": "ik_max_word"
},
"price":{
"type":"double"
},
"author":{
"type":"keyword"
},
"des":{
"type":"text",
"analyzer": "ik_max_word"
}
}
}
}
ik有ik_smart和ik_max_word两种分词方式,分别是最粗粒度和最细粒度分词
在使用分词的字段增加analyzer属性,值设置为ik_max_word
扩展
在es的plugin/ik/config目录下有个IKAnalyzer.cfg.xml文件

在同级目录创建一个.dic结尾的文件,我这里创建了一个my.dic,然后在里面设置分词

一行只能有一个词,字符编码必须是UTF-8,如果不是则不生效
编辑IKAnalyzer.cfg.xml文件
vim IKAnalyzer.cfg.xml
配置扩展的分词文件

重启es
扩展的分词对已有的数据不生效,只会对配置好分词之后添加的数据有效。
远程扩展配置
重启es
远程扩展配置的是文件地址,确保能访问到这个文件,文件编码必须为UTF-8。
扩展停止词字典是可以将已有分词不在继续分词
本文介绍如何安装及配置Elasticsearch的IK分词器,并演示了使用Kibana进行测试的方法。此外,还介绍了如何通过扩展配置实现自定义分词功能。
1465

被折叠的 条评论
为什么被折叠?



