docker上安装ik分词器

前言:

es本身也自带分词器,但是大多仅对英文比较友好,对于中文一般来说都是一个字一个词,不能实现我们想要的多字词分词,例如”北京天安门“,分词之后是“北”,“京”,“天”,“安”,“门“,所以我们需要手动安装”ik分词器,这款分词器相对于来说对中文分词是比较有好的“,下面进入步骤

一、安装elasticsearch

如未安装,可点击按步骤安装

二、进入github找到ik分词器的下载链接

搜索: elasticsearch-analysis-ik,然后点击tags

 一直找到所需要的版本,我用的是7.4.2

 点击进去之后找到zip包后,鼠标右键复制链接地址

 二、进入docker中elasticsearch的plugins 

docker exec -it c_elasticsearc
### 如何在 Docker 中在线安装 IK 分词器 要在 Docker 环境中为 Elasticsearch 在线安装 IK 分词器,可以按照以下方法操作: #### 1. 下载并解压 IK 分词器插件 通过 `wget` 命令下载官方发布的 IK 分词器插件压缩包。以下是针对 Elasticsearch 版本匹配的命令: ```bash wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.17.0/elasticsearch-analysis-ik-7.17.0.zip unzip elasticsearch-analysis-ik-7.17.0.zip -d /tmp/ ``` 此步骤会将 IK 分词器插件下载至本地,并将其解压到 `/tmp/` 目录下[^4]。 #### 2. 进入正在运行的 Elasticsearch 容器 使用 `docker exec` 命令进入已启动的 Elasticsearch 容器内部环境。假设容器名称为 `es`,执行如下命令: ```bash docker exec -it es bash ``` #### 3. 安装 IK 分词器插件 在容器内,利用 Elasticsearch 提供的内置工具完成插件安装。具体命令如下所示: ```bash ./bin/elasticsearch-plugin install file:///tmp/elasticsearch-analysis-ik-7.17.0.zip ``` 该命令能够读取之前解压后的文件路径,从而实现 IK 插件的自动加载和配置[^2]。 #### 4. 验证 IK 分词器是否成功安装 重启 Elasticsearch 容器以使更改生效,随后测试分词功能是否正常工作。可以通过发送 HTTP 请求来验证分析效果: ```json POST http://localhost:9200/_analyze { "analyzer": "ik_max_word", "text": "这是一个用于测试IK分词器的例子" } ``` 如果返回结果包含多个切分词语,则表明 IK 分词器已经正确集成到了当前实例之中[^3]。 #### 注意事项 确保所使用的 ElasticsearchIK 分词器版本相兼容;否则可能会引发各种异常情况或者无法正常使用某些特性。此外,在生产环境下建议设置合理的内存参数以及持久化存储卷映射关系以便长期稳定运行[^1]。 ```python import requests url = 'http://localhost:9200/_analyze' payload = {"analyzer":"ik_max_word","text":"这是另一个简单的例子"} response = requests.post(url, json=payload) print(response.json()) ```
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值