lucene的分词器的用法

本文探讨使用Lucene进行全文搜索时遇到的问题,特别是当使用StandardAnalyzer时中文搜索无法正常工作的情况。文中详细分析了问题原因,并提出了解决方案,包括更换分词器为StopAnalyzer或WhitespaceAnalyzer。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

做全文搜索当然离不开lucene
但是要用好lucene可不简单

在开发过程中遇到这样一个问题
[b]问题描述[/b]
要对用户名进行搜索 就像je的搜索频道那样
插入是没有问题的 用的StandardAnalyzer
查询出问题了 中文用户名都查不出来 英文名没有问题
用luke看也没乱码
到底哪儿出了问题呢?

最好想到了StandardAnalyzer上
对汉字进行搜索是 StandardAnalyzer会对查询关键字进行分次 比如我们输入‘张学友’
分次后可能是 ‘张学’‘学友’ 等等 所以查不出我们想要的

怎么办呢? 更换分词器 用StopAnalyzer WhitespaceAnalyzer等都可以 只要不对汉字进行分词 ,让其精确匹配就可以了

还有一点值得一体 写索引是的分词器最好跟读时的分词器一致,否则未必找到你想要的结果
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值