SPARK Expand问题的解决(由count distinct、group sets、cube、rollup引起的)

本文探讨了Spark在处理大量数据时,Cube和GroupSets操作导致的Expand膨胀问题。通过实例展示了数据量膨胀80倍的挑战及解决方案,即调整`spark.sql.files.maxPartitionBytes`以控制任务规模。优化策略包括设置合适的文件分区大小和使用临时表减少ExchangeExec。最后,提到了未来可能的源码优化方向。

背景

本文基于spark 3.1.2
我们知道spark对于count(distinct)/group sets 以及cube、rollup的处理都是采用转换为Expand的方法处理,
这样做的优点就是在数据量小的情况下,能有以空间换时间,从而达到加速的目的。
但是弊端也是很明显,就是在数据量较大的情况下,而且expand的倍数达到上百倍或者千倍的时候,这任务运行的时间很长(这在数分中是非常常见的)。

分析

先来看一组图:
在这里插入图片描述

是不是很刺激,数据从2,635,978,109直接扩张到了168,702,598,976,将近80倍。
该sql就是简单的读取表让后group by cube,如下:
在这里插入图片描述
该sql运行的时长达到了5个小时,如下:
在这里插入图片描述
经过优化后,该sql只需要49分钟,如下:
在这里插入图片描述

其实解决方法很简单,因为我们读取的是parquet的文件,且依赖的表的文件个数有400个,但是优化前的任务数是99个,所以我们可以设置spark.sql.files.maxPartitionBytes的值来控制每个task任务读取的数据大小,笔者是设置为20MB。具体spark是怎么读取parquet文件的可以参考Spark-读取Parquet-为什么task数量会多于Row Group的数量

结论

这种expand问题解决的思路也是有的:

  1. 设置spark.sql.files.maxPartitionBytes为合适的值,这种只适合直接依赖于表的情况(不适用子查询)
  2. 参考SPARK-32542,这种只适合group sets的情况,有可能会导致ExchangeExec过多的问题
  3. repartition 中间结果表,再拿中间临时结果作为依赖表,这种如果依赖的表很多,需要建立很多的临时表,比较繁琐
     create table temp_a select /*+ repartition(1000) */ from fackt_table
     select columns from temp_a group by cube()
    
  4. 修改spark源码从源码底层支持(后续文章会说到)
Spark 中,`count distinct` 操作之所以会扩展数据(即增加数据处理的负担),主要与其执行机制和 Shuffle 过程密切相关。 ### 数据在 Shuffle 阶段被重新分布和扩展 `count distinct` 的实现本质上是将数据按照目标列进行分组(类似 `groupBy`),然后对每个分组进行去重计数。这一过程会触发 Shuffle 操作,将数据按照哈希值重新分布到不同的分区中,以便每个分区可以处理一部分去重任务。然而,在 Shuffle 过程中,数据需要在网络中传输,并且每个分区可能会生成大量的中间键值对,从而导致数据总量增加。这种扩展效应在数据量较大或数据分布不均时尤为明显 [^1]。 ### 数据倾斜导致额外的数据扩展和性能瓶颈 当某些键的值特别多时(例如,某些用户 ID 出现频率极高),这些键对应的数据会被集中到少数几个分区中,导致数据倾斜。这种情况下,不仅某些 Task 的执行时间大幅增加,而且由于这些分区需要处理更多的数据,因此它们会生成更多的中间数据,从而进一步加剧数据扩展问题 [^1]。 ### 使用 `count distinct` 时的内存压力和计算开销 Spark 在执行 `count distinct` 操作时,通常会在每个分区内部先进行局部去重,然后再将结果汇总。为了完成局部去重,Spark 需要在内存中维护一个哈希表来记录已经出现的值。当数据量较大或唯一值较多时,这个哈希表会占用大量内存,甚至可能导致内存溢出(OOM)[^1]。此外,最终的聚合阶段需要将各个分区的去重结果合并,这一过程涉及额外的计算开销和数据传输。 ### 优化建议:使用近似去重或调整分区策略 为了避免 `count distinct` 引发的数据扩展问题,可以考虑使用近似去重方法,例如 `approxCountDistinct`,它基于 HyperLogLog 算法,在牺牲少量精度的情况下显著降低资源消耗 。此外,可以通过调整分区策略(如使用 `RangePartitioner` 或自定义分区策略)来优化数据分布,从而减少 Shuffle 阶段的数据扩展效应 [^1]。 ```scala val keyedRDD = rdd.keyBy(row => row(6).asInstanceOf[Int].toDouble) keyedRDD.partitionBy(new HashPartitioner(10)).take(10) ``` ###
评论 7
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值