最近在搞lucene搜索,其时以前也接触过,用的lunce2,数据量访问量相对很小,
现在换了个地方a,里面的数据量可能是百万千万级的,开始没有意识到,后来用了个testcase加了200万的数据,结果才发现建立索引文件慢,大,性能有点问题,要想办法解决!惭愧,所以在网上碰了好久,找了一些资料,也是留着学习。
http://code.google.com/p/nutla/
http://hadoop.apache.org/
http://hadoop.apache.org/common/docs/r0.18.2/cn/quickstart.html
附件为 Nut 文档
现在换了个地方a,里面的数据量可能是百万千万级的,开始没有意识到,后来用了个testcase加了200万的数据,结果才发现建立索引文件慢,大,性能有点问题,要想办法解决!惭愧,所以在网上碰了好久,找了一些资料,也是留着学习。
http://code.google.com/p/nutla/
http://hadoop.apache.org/
http://hadoop.apache.org/common/docs/r0.18.2/cn/quickstart.html
附件为 Nut 文档
本文分享了一次使用Lucene进行大规模数据搜索的经验教训。作者在面对百万至千万级别的数据量时,发现原有的Lucene 2版本在建立索引时存在速度慢、文件大的问题。文中探讨了解决这些问题的方法,并提供了进一步学习的资源。
261

被折叠的 条评论
为什么被折叠?



