背景
本文基于SPARK 3.3.0
HashAggregate的优化
该优化是FaceBook(Meta) 内部的优化,还有合并到spark社区。
该优化的主要是partialaggregate的部分:对于类似求count,sum,Avg的聚合操作,会存在现在mapper进行部分聚合的操作,之后在reduce端,再进行FinalAggregate操作。这看起来是没有问题的(能够很好的减少网络IO),但是我们知道对于聚合操作,我们会进行数据的spill的操作,如果在mapper阶段合并的数据很少,以至于抵消不了网络IO带来的消耗的话,这无疑会给任务带来损耗。




利用运行时的指标信息,能够达到比较好的加速效果。


本文探讨了在Spark 3.3.0中针对HashAggregate和ObjectHashAggregate的优化,包括利用运行时指标减少网络IO、调整spill策略以及优化内存使用。此外,还介绍了SortAggregate的新特性,如在数据有序情况下替代HashAggregate,并支持codegen。文章强调了这些优化在性能提升和内存管理方面的贡献,但也指出可能存在的数据倾斜导致的OOM风险。
最低0.47元/天 解锁文章
1141





