自己写Lucene分词器示例篇——写一个简单点额分析器

本文介绍了一个基于Lucene 4.x的简单分析器实现,用于联系人、文章名称、应用名称等搜索建议。通过字符切割,用户输入前几个字或拼音即可获得相关建议结果。源码在GitHub上提供。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

介绍lucene的一个简单的分析器实现,基于4.x。这个分析器的示例,abcd分词为a,ab,abc,abcd。是用在联系人,文章名称,应用名称等搜索建议上的。用户输入前几个字或者前几个拼音,就能显示出建议的结果。比如,在联系人里面搜liug,就能提示你有刘刚,刘钢等联系人,这个需要一个字符一个字符的切割。源码在github上,点击打开链接

一:类

只有3个类,主类和Toknizer工厂和Tokenizer


1.PrefixAnalyzer,因为没有过滤器,所以直接只用tokenizer来处理就可以了

public final class PrefixAnalyzer extends Analyzer {

      @Override
      protected TokenStreamComponents createComponents(String fieldName,
          Reader reader) {
        final Tokenizer source = new PrefixTokenizer(reader);
        return new TokenStreamComponents(source);
      }
  }

2.PrefixTokenizer,只需要要把输入的字符从0开始到1到length一个个切开,存储就可以了

public final class PrefixTokenizer extends Tokenizer {


    public PrefixTokenizer(Reader in) {
      super(in);
    }

    public PrefixTokenizer(AttributeSource source, Reader in) {
      super(source, in);
    }

    public PrefixTokenizer(AttributeFactory factory, Reader in) {
      super(factory, in);
    }
       
    private int offset = 0, dataLen=0;
    private final static int MAX_WORD_LEN = 255;
    private final static int IO_BUFFER_SIZE = 1024;
    private final char[] ioBuffer = new char[IO_BUFFER_SIZE];


    private final CharTermAttribute termAtt = addAttribute(CharTermAttribute.class);
    private final OffsetAttribute offsetAtt = addAttribute(OffsetAttribute.class);
    
    @Override
    public boolean incrementToken() throws IOException {
        clearAttributes();

        while (true) {

            //读取输入流,当处理完一次输入流后,在读输入流datalen就等于-1
            if (offset >= dataLen) {
                dataLen = input.read(ioBuffer);
                offset = 0;
            }

            if (dataLen == -1 || dataLen > MAX_WORD_LEN) {
               return false;
            }  
            //偏移量加一,写入索引词典
            offset++;
            termAtt.copyBuffer(ioBuffer, 0, offset);
            offsetAtt.setOffset(correctOffset(0), correctOffset(offset));
            return true;
        }
    }
    
    @Override
    public final void end() {
      // set final offset
      final int finalOffset = correctOffset(offset);
      this.offsetAtt.setOffset(finalOffset, finalOffset);
    }

    @Override
    public void reset() throws IOException {
      super.reset();
      offset = dataLen = 0;
    }
}


lucene搜索分页过程中,可以有两种方式 一种是将搜索结果集直接放到session中,但是假如结果集非常大,同时又存在大并发访问的时候,很可能造成服务器的内存不足,而使服务器宕机 还有一种是每次都重新进行搜索,这样虽然避免了内存溢出的可能,但是,每次搜索都要进行一次IO操作,如果大并发访问的时候,你要保证你的硬盘的转速足够的快,还要保证你的cpu有足够高的频率 而我们可以将这两种方式结合下,每次查询都多缓存一部分的结果集,翻页的时候看看所查询的内容是不是在已经存在在缓存当中,如果已经存在了就直接拿出来,如果不存在,就进行查询后,从缓存中读出来. 比如:现在我们有一个搜索结果集 一个有100条数据,每页显示10条,就有10页数据. 安装第一种的思路就是,我直接把这100条数据缓存起来,每次翻页时从缓存种读取 而第二种思路就是,我直接从搜索到的结果集种显示前十条给第一页显示,第二页的时候,我在查询一次,给出10-20条数据给第二页显示,我每次翻页都要重新查询 第三种思路就变成了 我第一页仅需要10条数据,但是我一次读出来50条数据,把这50条数据放入到缓存当中,当我需要10--20之间的数据的时候,我的发现我的这些数据已经在我的缓存种存在了,我就直接存缓存中把数据读出来,少了一次查询,速度自然也提高了很多. 如果我访问第六页的数据,我就把我的缓存更新一次.这样连续翻页10次才进行两次IO操作 同时又保证了内存不容易被溢出.而具体缓存设置多少,要看你的服务器的能力和访问的人数来决定
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值