django select_related 和 prefetch_related 函数对 QuerySet 查询的优化(三)

本文通过实例对比展示了Django ORM中select_related()和prefetch_related()的使用技巧及最佳实践,帮助开发者理解如何减少SQL查询次数,提升应用性能。

这是本系列的最后一篇,主要是select_related() 和 prefetch_related() 的最佳实践。


4. 一些实例


选择哪个函数
如果我们想要获得所有家乡是湖北的人,最无脑的做法是先获得湖北省,再获得湖北的所有城市,最后获得故乡是这个城市的人。就像这样:

[python]  view plain  copy
  1. >>> hb = Province.objects.get(name__iexact=u"湖北省")  
  2. >>> people = []  
  3. >>> for city in hb.city_set.all():  
  4. ...   people.extend(city.birth.all())  
  5. ...  
显然这不是一个明智的选择,因为这样做会导致1+(湖北省城市数)次SQL查询。反正是个反例,导致的查询和获得掉结果就不列出来了。

prefetch_related() 或许是一个好的解决方法,让我们来看看。
[python]  view plain  copy
  1. >>> hb = Province.objects.prefetch_related("city_set__birth").objects.get(name__iexact=u"湖北省")  
  2. >>> people = []  
  3. >>> for city in hb.city_set.all():  
  4. ...   people.extend(city.birth.all())  
  5. ...  
因为是一个深度为2的prefetch,所以会导致3次SQL查询:
[sql]  view plain  copy
  1. SELECT `QSOptimize_province`.`id`, `QSOptimize_province`.`name`   
  2. FROM `QSOptimize_province`   
  3. WHERE `QSOptimize_province`.`nameLIKE '湖北省' ;  
  4.   
  5. SELECT `QSOptimize_city`.`id`, `QSOptimize_city`.`name`, `QSOptimize_city`.`province_id`   
  6. FROM `QSOptimize_city`   
  7. WHERE `QSOptimize_city`.`province_id` IN (1);  
  8.   
  9. SELECT `QSOptimize_person`.`id`, `QSOptimize_person`.`firstname`, `QSOptimize_person`.`lastname`,   
  10. `QSOptimize_person`.`hometown_id`, `QSOptimize_person`.`living_id`   
  11. FROM `QSOptimize_person`   
  12. WHERE `QSOptimize_person`.`hometown_id` IN (1, 3);  

嗯...看上去不错,但是3次查询么?倒过来查询可能会更简单?
[python]  view plain  copy
  1. >>> people = list(Person.objects.select_related("hometown__province").filter(hometown__province__name__iexact=u"湖北省"))  
[sql]  view plain  copy
  1. SELECT `QSOptimize_person`.`id`, `QSOptimize_person`.`firstname`, `QSOptimize_person`.`lastname`,   
  2. `QSOptimize_person`.`hometown_id`, `QSOptimize_person`.`living_id`, `QSOptimize_city`.`id`,   
  3. `QSOptimize_city`.`name`, `QSOptimize_city`.`province_id`, `QSOptimize_province`.`id`, `QSOptimize_province`.`name`  
  4. FROM `QSOptimize_person`   
  5. INNER JOIN `QSOptimize_city` ON (`QSOptimize_person`.`hometown_id` = `QSOptimize_city`.`id`)   
  6. INNER JOIN `QSOptimize_province` ON (`QSOptimize_city`.`province_id` = `QSOptimize_province`.`id`)   
  7. WHERE `QSOptimize_province`.`nameLIKE '湖北省';  
[plain]  view plain  copy
  1. +----+-----------+----------+-------------+-----------+----+--------+-------------+----+--------+  
  2. | id | firstname | lastname | hometown_id | living_id | id | name   | province_id | id | name   |  
  3. +----+-----------+----------+-------------+-----------+----+--------+-------------+----+--------+  
  4. |  1 | 张        | 三       |           3 |         1 |  3 | 十堰市 |           1 |  1 | 湖北省 |  
  5. |  2 | 李        | 四       |           1 |         3 |  1 | 武汉市 |           1 |  1 | 湖北省 |  
  6. |  3 | 王        | 麻子     |           3 |         2 |  3 | 十堰市 |           1 |  1 | 湖北省 |  
  7. +----+-----------+----------+-------------+-----------+----+--------+-------------+----+--------+  
  8. 3 rows in set (0.00 sec)  
完全没问题。不仅SQL查询的数量减少了,python程序上也精简了。

select_related()的效率要高于prefetch_related()。因此,最好在能用select_related()的地方尽量使用它,也就是说,对于ForeignKey字段,避免使用prefetch_related()。



联用
对于同一个QuerySet,你可以同时使用这两个函数。
在我们一直使用的例子上加一个model:Order (订单)
[python]  view plain  copy
  1. class Order(models.Model):  
  2.     customer   = models.ForeignKey(Person)  
  3.     orderinfo  = models.CharField(max_length=50)  
  4.     time       = models.DateTimeField(auto_now_add = True)  
  5.     def __unicode__(self):  
  6.         return self.orderinfo  
如果我们拿到了一个订单的id 我们要知道这个订单的客户去过的省份。因为有ManyToManyField显然必须要用prefetch_related()。如果只用prefetch_related()会怎样呢?
[python]  view plain  copy
  1. >>> plist = Order.objects.prefetch_related('customer__visitation__province').get(id=1)  
  2. >>> for city in plist.customer.visitation.all():  
  3. ...   print city.province.name  
  4. ...  
显然,关系到了4个表:Order、Person、City、Province,根据prefetch_related()的特性就得有4次SQL查询
[sql]  view plain  copy
  1. SELECT `QSOptimize_order`.`id`, `QSOptimize_order`.`customer_id`, `QSOptimize_order`.`orderinfo`, `QSOptimize_order`.`time`   
  2. FROM `QSOptimize_order`   
  3. WHERE `QSOptimize_order`.`id` = 1 ;  
  4.   
  5. SELECT `QSOptimize_person`.`id`, `QSOptimize_person`.`firstname`, `QSOptimize_person`.`lastname`, `QSOptimize_person`.`hometown_id`, `QSOptimize_person`.`living_id`   
  6. FROM `QSOptimize_person`   
  7. WHERE `QSOptimize_person`.`id` IN (1);  
  8.   
  9. SELECT (`QSOptimize_person_visitation`.`person_id`) AS `_prefetch_related_val`, `QSOptimize_city`.`id`,  
  10. `QSOptimize_city`.`name`, `QSOptimize_city`.`province_id`   
  11. FROM `QSOptimize_city`   
  12. INNER JOIN `QSOptimize_person_visitation` ON (`QSOptimize_city`.`id` = `QSOptimize_person_visitation`.`city_id`)   
  13. WHERE `QSOptimize_person_visitation`.`person_id` IN (1);   
  14.   
  15. SELECT `QSOptimize_province`.`id`, `QSOptimize_province`.`name`   
  16. FROM `QSOptimize_province`  
  17. WHERE `QSOptimize_province`.`id` IN (1, 2);  
[plain]  view plain  copy
  1. +----+-------------+---------------+---------------------+  
  2. | id | customer_id | orderinfo     | time                |  
  3. +----+-------------+---------------+---------------------+  
  4. |  1 |           1 | Info of Order | 2014-08-10 17:05:48 |  
  5. +----+-------------+---------------+---------------------+  
  6. 1 row in set (0.00 sec)  
  7.   
  8. +----+-----------+----------+-------------+-----------+  
  9. | id | firstname | lastname | hometown_id | living_id |  
  10. +----+-----------+----------+-------------+-----------+  
  11. |  1 | 张        | 三       |           3 |         1 |  
  12. +----+-----------+----------+-------------+-----------+  
  13. 1 row in set (0.00 sec)  
  14.   
  15. +-----------------------+----+--------+-------------+  
  16. | _prefetch_related_val | id | name   | province_id |  
  17. +-----------------------+----+--------+-------------+  
  18. |                     1 |  1 | 武汉市 |           1 |  
  19. |                     1 |  2 | 广州市 |           2 |  
  20. |                     1 |  3 | 十堰市 |           1 |  
  21. +-----------------------+----+--------+-------------+  
  22. 3 rows in set (0.00 sec)  
  23.   
  24. +----+--------+  
  25. | id | name   |  
  26. +----+--------+  
  27. |  1 | 湖北省 |  
  28. |  2 | 广东省 |  
  29. +----+--------+  
  30. 2 rows in set (0.00 sec)  


更好的办法是先调用一次select_related()再调用prefetch_related(),最后再select_related()后面的表
[python]  view plain  copy
  1. >>> plist = Order.objects.select_related('customer').prefetch_related('customer__visitation__province').get(id=1)  
  2. >>> for city in plist.customer.visitation.all():  
  3. ...   print city.province.name  
  4. ...  
这样只会有3次SQL查询,Django会先做select_related,之后prefetch_related的时候会利用之前缓存的数据,从而避免了1次额外的SQL查询:
[sql]  view plain  copy
  1. SELECT `QSOptimize_order`.`id`, `QSOptimize_order`.`customer_id`, `QSOptimize_order`.`orderinfo`,   
  2. `QSOptimize_order`.`time`, `QSOptimize_person`.`id`, `QSOptimize_person`.`firstname`,   
  3. `QSOptimize_person`.`lastname`, `QSOptimize_person`.`hometown_id`, `QSOptimize_person`.`living_id`   
  4. FROM `QSOptimize_order`   
  5. INNER JOIN `QSOptimize_person` ON (`QSOptimize_order`.`customer_id` = `QSOptimize_person`.`id`)   
  6. WHERE `QSOptimize_order`.`id` = 1 ;  
  7.   
  8. SELECT (`QSOptimize_person_visitation`.`person_id`) AS `_prefetch_related_val`, `QSOptimize_city`.`id`,   
  9. `QSOptimize_city`.`name`, `QSOptimize_city`.`province_id`   
  10. FROM `QSOptimize_city`   
  11. INNER JOIN `QSOptimize_person_visitation` ON (`QSOptimize_city`.`id` = `QSOptimize_person_visitation`.`city_id`)   
  12. WHERE `QSOptimize_person_visitation`.`person_id` IN (1);  
  13.   
  14. SELECT `QSOptimize_province`.`id`, `QSOptimize_province`.`name`   
  15. FROM `QSOptimize_province`   
  16. WHERE `QSOptimize_province`.`id` IN (1, 2);  
[plain]  view plain  copy
  1. +----+-------------+---------------+---------------------+----+-----------+----------+-------------+-----------+  
  2. | id | customer_id | orderinfo     | time                | id | firstname | lastname | hometown_id | living_id |  
  3. +----+-------------+---------------+---------------------+----+-----------+----------+-------------+-----------+  
  4. |  1 |           1 | Info of Order | 2014-08-10 17:05:48 |  1 | 张        | 三       |           3 |         1 |  
  5. +----+-------------+---------------+---------------------+----+-----------+----------+-------------+-----------+  
  6. 1 row in set (0.00 sec)  
  7.   
  8. +-----------------------+----+--------+-------------+  
  9. | _prefetch_related_val | id | name   | province_id |  
  10. +-----------------------+----+--------+-------------+  
  11. |                     1 |  1 | 武汉市 |           1 |  
  12. |                     1 |  2 | 广州市 |           2 |  
  13. |                     1 |  3 | 十堰市 |           1 |  
  14. +-----------------------+----+--------+-------------+  
  15. 3 rows in set (0.00 sec)  
  16.   
  17. +----+--------+  
  18. | id | name   |  
  19. +----+--------+  
  20. |  1 | 湖北省 |  
  21. |  2 | 广东省 |  
  22. +----+--------+  
  23. 2 rows in set (0.00 sec)  


值得注意的是,可以在调用prefetch_related之前调用select_related,并且Django会按照你想的去做:先select_related,然后利用缓存到的数据prefetch_related。然而一旦prefetch_related已经调用,select_related将不起作用。


小结
  1. 因为select_related()总是在单次SQL查询中解决问题,而prefetch_related()会对每个相关表进行SQL查询,因此select_related()的效率通常比后者高。
  2. 鉴于第一条,尽可能的用select_related()解决问题。只有在select_related()不能解决问题的时候再去想prefetch_related()。
  3. 你可以在一个QuerySet中同时使用select_related()和prefetch_related(),从而减少SQL查询的次数。
  4. 只有prefetch_related()之前的select_related()是有效的,之后的将会被无视掉。
【负荷预测】基于VMD-CNN-LSTM的负荷预测研究(Python代码实现)内容概要:本文介绍了基于变分模态分解(VMD)、卷积神经网络(CNN)长短期记忆网络(LSTM)相结合的VMD-CNN-LSTM模型在负荷预测中的研究与应用,采用Python代码实现。该方法首先利用VMD对原始负荷数据进行分解,降低序列复杂性并提取不同频率的模态分量;随后通过CNN提取各模态的局部特征;最后由LSTM捕捉时间序列的长期依赖关系,实现高精度的负荷预测。该模型有效提升了预测精度,尤其适用于非平稳、非线性的电力负荷数据,具有较强的鲁棒性泛化能力。; 适合人群:具备一定Python编程基础深度学习背景,从事电力系统、能源管理或时间序列预测相关研究的科研人员及工程技术人员,尤其适合研究生、高校教师及电力行业从业者。; 使用场景及目标:①应用于日前、日内及实时负荷预测场景,支持智慧电网调度与能源优化管理;②为研究复合型深度学习模型在非线性时间序列预测中的设计与实现提供参考;③可用于学术复现、课题研究或实际项目开发中提升预测性能。; 阅读建议:建议读者结合提供的Python代码,深入理解VMD信号分解机制、CNN特征提取原理及LSTM时序建模过程,通过实验调试参数(如VMD的分解层数K、惩罚因子α等)优化模型性能,并可进一步拓展至风电、光伏等其他能源预测领域。
【轴承故障诊断】基于融合鱼鹰柯西变异的麻雀优化算法OCSSA-VMD-CNN-BILSTM轴承诊断研究【西储大学数据】(Matlab代码实现)内容概要:本文研究了一种基于融合鱼鹰柯西变异的麻雀优化算法(OCSSA)优化变分模态分解(VMD)参数,并结合卷积神经网络(CNN)与双向长短期记忆网络(BiLSTM)的轴承故障诊断模型。该方法利用西储大学轴承数据集进行验证,通过OCSSA算法优化VMD的分解层数K惩罚因子α,有效提升信号去噪与特征提取能力;随后利用CNN提取故障特征的空间信息,BiLSTM捕捉时间序列的长期依赖关系,最终实现高精度的轴承故障识别。整个流程充分结合了智能优化、信号处理与深度学习技术,显著提升了复杂工况下故障诊断的准确性与鲁棒性。; 适合人群:具备一定信号处理、机器学习及MATLAB编程基础的研究生、科研人员及从事工业设备故障诊断的工程技术人员。; 使用场景及目标:①解决传统VMD参数依赖人工经验选择的问题,实现自适应优化;②构建高效准确的轴承故障诊断模型,适用于旋转机械设备的智能运维与状态监测;③为类似机电系统故障诊断提供可借鉴的技术路线与代码实现参考。; 阅读建议:建议结合提供的Matlab代码进行实践操作,重点关注OCSSA算法的设计机制、VMD参数优化过程以及CNN-BiLSTM网络结构的搭建与训练细节,同时可尝试在其他故障数据集上迁移应用以加深理解。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值