当然是对搜索返回的结果进行分页,并不是对搜索结果的总数量进行分页,因为我们搜索的时候都是返回前n条记录。
例如indexSearcher.search(query, 100);//只返回前100条记录
刚开始用的时候返回的记录数我是用searcher.maxDocs()所有的记录数,发现返回全部记录,检索的速度很慢。后来就改为:控制返回记录的数量,如将上面的100改为pageNo*pageSize。
(2)分页方式二、
- TopScoreDocCollector topCollector = TopScoreDocCollector.create(
- 100, false);
- searcher.search(query, topCollector);
- System.out.println("命中:" + topCollector.getTotalHits());
- // 查询当页的记录
- ScoreDoc[] docs = topCollector.topDocs((pageNO - 1) * pageSize,
- pageSize).scoreDocs;;
可以用这个方法加入排序功能。TopFieldCollector.create(sort, topCount, false, false, false, false);
但是只要加入排序,检索时间就增加几乎4倍。
二、创建索引的时候,记得设置writerConfig.setRAMBufferSizeMB(int n) ;这个方法是指,创建索引的时候内存使用达到n值的时候就将index写到磁盘上。 n的值根据自己服务器的内存大小看着办设置;在writer.addDocument()之后就不要使用writer.commit();全部addDocument()之后直接writer.close()。
三、我使用的庖丁分词器。注意在系统变量中配置词典的路径变量PAODING_DIC_HOME=path,path指的是词典dic放置的路径。
四、解析各种文档,如poi解析word抽取文本信息:在windows下支持十几M大小,在linux下能支持200多M。