mongodb遍历万亿级数据,论索引的重要性

本文分享了一次使用MongoDB处理大规模数据时的经验,通过添加索引显著提升了数据处理速度,从每小时处理几十K数据提升到40分钟内完成全部更新。

【背景】有160万用户账号数据,200万终端账号数据,需要在160万用户账号数据中排除所有账号数据,那就需要遍历 160万 * 200万 = 3200000000000 次运算 ,3万2000亿次!

 

用mongodbimport的upsert 命令  

mongoimport --db xxx --host xxx --port 27017 --username xxx--password xxx --collection xxx --type csv --headerline --upsertFields uid --file /data/xxx/xxx.csv --numInsertionWorkers 8 


这个命令会把找到的数据替换调,举例:原有集合 uid,aa,bb      xxx.csv 里面的数据 uid,cc     这个命令执行之后,新的集合数据为  uid,cc          数据被替换了,如果你想添加字段,弄成 uid,aa,bb,cc 这样,mongoimport这个命令貌似是不支持的,需要自己用程序实现。


言归正传,这个命令跑起来非常慢,一个小时更新几十k的数据,我突然想到用增加索引试一试,db.xxx.ensureIndex({"uid":1});   没想到啊! 这么命令执行之后,效果立竿见影,速度一下就上来了,剩下的数据,总共27.7MB (建序列之前,跑了2个多小时,跑了88KB) 40分钟跑完!


牛逼了! 索引    32k亿次运算啊


### MongoDB 索引优化与数据优化实验方案 #### 实验目标 本实验旨在帮助开发者理解如何通过索引优化和数据分析来提升 MongoDB 的查询性能。重点在于掌握 `explain()` 方法的使用以及识别潜在的性能瓶颈。 --- #### 使用 `explain()` 分析查询执行计划 `explain()` 是一种强大的工具,用于获取查询的执行计划并评估其效率。它提供了有关查询优化器决策的信息,包括索引的选择、扫描文档的数量以及其他重要指标[^1]。 可以通过以下方式调用此方法: ```javascript db.collection.find({ field: value }).explain("executionStats"); ``` 上述命令中的 `"executionStats"` 参数能够提供更详细的统计数据,例如 I/O 开销和实际处理时间。这有助于判断当前查询是否高效,并决定是否需要调整索引结构或重写查询逻辑。 --- #### 数据压缩与存储空间管理 随着数据库的增长,频繁的增删改操作可能导致大量空洞(fragmentation)。这些未释放的空间不仅浪费磁盘资源,还可能影响内存缓存的有效性[^4]。为了缓解这一问题,可以采取以下措施: - **定期重组集合**:利用 `compact` 命令减少碎片化。 ```bash db.runCommand({ compact: "collectionName" }); ``` - **重建索引**:清理无用的索引条目以节省空间。 ```javascript db.collection.reIndex(); ``` 以上两种策略均需谨慎实施,尤其是在生产环境中,因为它们可能会引发短暂的服务中断。 --- #### 高效计数替代方案 对于大规模数据集而言,传统的 `count(*)` 操作往往耗时较长。因此建议采用预计算的方式代替实时统计[^3]。例如,在应用层维护一个独立的汇总表或者借助 Redis 缓存结果值。如果必须依赖于原生 SQL,则优先考虑基于主键范围估算总数而非逐行遍历整个表格内容。 --- #### 结合 Spark 进行大数据分析 当面对海量别的记录文件夹时,仅依靠单机版 MongoDB 可能难以满足需求。此时可引入 Apache Spark 来分担压力,构建分布式计算框架完成复杂任务调度工作流设计[^2]。下面展示了一种简单的 PySpark 脚本来连接远程部署实例并提取指定字段样本: ```python from pyspark.sql import SparkSession spark = ( SparkSession.builder.appName("MongoDB Connector Example") .config( "spark.mongodb.input.uri", "mongodb://username:password@host:port/database.collection?authSource=admin", ) .getOrCreate() ) dataframe = spark.read.format("mongo").load() sample_data = dataframe.select("field_name").limit(10).collect() for row in sample_data: print(row["field_name"]) ``` 注意替换占位符部分的实际配置参数以便成功建立链接关系。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值