Elasticsearch--高级-分词 & 安装ik分词---全文检索引擎ElasticSearch工作笔记020

本文介绍了如何在Elasticsearch中使用标准分词器并发现其不适用于中文分词。接着详细讲解了下载、安装和配置IK分词器的过程,包括在虚拟机中操作Docker容器,将分词器安装到Elasticsearch的plugins目录,并通过Elasticsearch-plugin命令检查插件安装情况。最后,展示了IK分词器的不同模式(ik_smart和ik_max_word)对中文文本的分词效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

然后我们再来看一下,es中的分词,

要知道tokenizer就是分词器,然后他会接收一个字符流,然后把字符流分成一个个独立的tokens,词元.

然后把tokens流再输出.

 

然后我们去看看,官网这个部分,在es官网上可以看到

点击analysis可以看到

下面有个analyzers,可以看到下面提供了很多的分词器,

我们找到一个standard analyzer,这个是标准分词器.

 

.也是es提供的默认的分词器.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

添柴程序猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值