Mongodb 索引优化建议

由于交易collection数据量过大,导致API调用超时。分析发现,原先根据_id排序的索引导致大量无效数据扫描。优化后的索引设计为{'markingSystem': 1, '_id': -1, 'startDate': 1, 'endDate': 1}或{'source': 1, '_id': -1, 'startDate': 1, 'endDate': 1},显著提高了查询性能。建议组合索引的第一个字段应为高查询频率的等值字段,避免范围查询字段。" 106657570,8408796,Numpy中的数组运算与统计指标,"['数据处理', '数据分析', 'Numpy', '统计学']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

业务背景

偶然的一次机会,听到我们项目的API 调用方说请求超时,server 返回500,经查验说是交易的collection数据量太大(超过100GB),而且每天通过spring batch新增80w数据量,目前表的数据量已经过亿,有同事分析了查询说是通过索引会扫描大量的无效数据(此处默认通过id 排序分页),然后只能强制删除了大部分数据(目前是30GB)。

索引优化

原先的查询语句如下(涉及保密数据用xxxx代替):

db.Trade.find( {_id:{$lte:ObjectId("xxxxxxxx")},"startDate":{"$lte":ISODate("2018-12-08T23:59:59.000Z")},"endDate":{"$not":{"$lte":ISODate("2018-12-08T23:59:59.000Z")}},"source":"XXXX"}).hint('_id_1_startDate_1_endDate_1').sort({ '_id': -1 }).limit(100000)

 

db.Trade.find( {_id:{$lte:ObjectId("XXXXXXXX")}, "startDate":{"$lte":ISODate("2018-12-08T23:59:59.000Z")},"endDate":{"$not":{"$lte":ISODate("2018-12-08T23:59:59.000Z")}}, markingSystems: { $in: ['XXX'] }}).sort({ '_id': -1 }).limit(100000)

经分析建立如下索引:

db.Trade.createIndex({'source':1,'_id':-1,startDate:1,endDate:1},{background:true})

db.Trade.createIndex({'markingSystem':1,'_id':-1,startDate:1,endDate:1},{background:true})

优化后的performance : from 100sec to 2sec

原因:

原先的索引'_id_1_startDate_1_endDate_1'有明显的缺点,它是先根据_id排序再过滤的,所以Iindexscan的时候会过滤大量的无效数据,而新的索引{'markingSystem':1,'_id':-1,startDate:1,endDate:1} or {'source':1,'_id':-1,startDate:1,endDate:1}会根据markingSystem or source过滤掉大量无效数据,接下来再根据其他过滤条件来过滤的范围会小很多。

优化建议

组合索引第一个字段应该是查询频率较高的字段,第二个是你要排序的字段,其余放后面。

第一个字段需要特别注意,最好放等值查询的字段,不要放范围查询的字段,如 $gt, $gte, $lt等。

 

ps:如果你还有更好的建议,欢迎留言一起探讨

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值