之前花过半天时间写了个MongoDB的CRUD的demo。使用起来还是相当简单的。了解到mongodb是通过“肉饼”的博客。看到之后就对nosql的数据库非常感兴趣。
目前数据量最大的新闻数据库(mysql)2000W。读取非常的慢。慢到有时候没法使用。所以今天测试下新闻数据。
最初在winxp下内存2G,插入30W数据时,后台异常 error 8,mongodb数据1.5G。插入耗时:10s左右
后来发现是32bit内存不够用。今天放到 redhat linux 64bit ram:4G ,插入800w数据。mongodb数据大小22g。
预计8g内存,单机2000w数据,50G+,应该没问题。
22G数据量下,查询10次,首次平均时间30ms,以后带有缓存的查询平均时间5ms左右,速度还是相当快的。
本文测试了MongoDB在处理新闻数据时的性能,包括内存需求、插入速度及查询效率。通过从XP迁移到Red Hat Linux 64位系统,内存增加至4GB,实现了高效的数据插入和查询操作,展现了MongoDB在海量数据处理方面的优势。
1088

被折叠的 条评论
为什么被折叠?



