和数据库一样,索引库在数据量一多的情况下,会建立大量的索引,就算会自动合并相同的索引,可还是很多,这样一来,性能就会降低,因此本文在前三章的基础上探讨一下索引库的优化,并介绍几种优化手段。
1:通过indexWriterConfig 这个对象来进行优化
Directory directory=FSDirectory.open(new File(“D://index”));
IndexWriterConfig conf=new IndexWriterConfig(LuceneUtil.getMatchVersion(), LuceneUtil.getAnalyzer());
//在lucene 里面都是0 配置的.. 都是通过设置对象的参数来进行配置...
// MergePolicy 设置合并规则...
LogDocMergePolicy mergePolicy=new LogDocMergePolicy();
/**
* 1:mergeFactor
* 当这个值越小,更少的内存被运用在创建索引的时候,搜索的时候越快,创建索引的时候越慢..
* 当这个值越大,更多的内存被运用在创建索引的时候,搜索的时候越慢,创建的时候越快...
* 2 < smaller value <10,设置的值必须在这个范围
*/
//设置索引的合并因子...
mergePolicy.setMergeFactor(6);
conf.setMergePolicy(mergePolicy);
IndexWriter indexWriter=new IndexWriter(directory, conf);
2:排除停用词,排除停用,被分词器过滤掉,词就不会建立索引,索引文件就会变小,这样搜索的时候就会变快,具体怎么操作,在第三篇里关于分词器里有详细介绍
3::将索引放入内存里
//索引在硬盘里面...
Directory directory1=FSDirectory.open(new File(“D://index”));
IOContext ioContext=new IOContext();
//索引放在内存当中...
Directory directory=new RAMDirectory(directory1,ioContext);
4:通过查询条件优化,这一点在下一篇文章详细介绍