elasticsearch 分词器

本文介绍了分词器的基本概念及其在搜索引擎中的作用,包括如何通过分词提高搜索的召回率,分词器的主要功能如预处理、分词及过滤等,并列举了Elasticsearch内置的几种分词器。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、分词器

分词器 就是把一段句子拆分成一个一个的单个的单词,同时对每个单词进行normalization(时态转换,单复数转换)。主要作用就是:切分词语,normalization(提升recall召回率)。

normalization: 建立倒排索引的时候,会执行一个操作,对拆分出的各个单词进行相应处理,以提升后面搜索的时候能够搜索到的相关联的文档的概率。像时态转换、单复数转换、大小写转换等。

recall(召回率): 搜索的时候,增加能够搜索到的结果的数量

二、分词器的功能

  1. character filter:在一段文本进行分词之前,先进行预处理,比如说最常见的就是,过滤html标签。例:<span>hello<span> --> hello& --> and,I&you --> I and you
  2. tokenizer:分词:hello you and me --> hello, you, and, me
  3. token filter:单复数转换、大小写转换,近义词转换,去掉a/an/the等。l

在分词器将文本进行各种处理后,最后处理好的结果才会拿去建立倒排索引。

三、es内置分词器

  1. standard analyzer(默认使用):大小写、去符号、按照基本空格拆分,也会按照-、_ 拆分。
  2. simple analyzer:相当于standard,但更简单。
  3. whitespace analyzer:不做大小写转换,且只按照空格拆分。
  4. language analyzer:特定的语言的分词器,比如说,english,英语分词器。

四、测试分词器

GET /_analyze
{
  "analyzer": "standard",
  "text": "Text to analyze"
}
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值