Spark DataFrame中rollup和cube使用

本文通过实例展示了Spark DataFrame中rollup与cube函数的使用方法。rollup按指定维度进行分组汇总,cube则包括所有可能的维度组合。两者均可简化多维度报表的生成过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Spark DataFrame中rollup和cube使用

我们平时在做报表的时候,经常会有各种分维度的汇总计算,在spark中我们最常用的就是groupBy操作,groupBy就是按照给定的字段名分组,后面接sum、count、avg等聚合操作;在spark中也提供了rollupcube这样的分组函数,接下来本文就以一个实例展示一下这两个函数的作用。
我们先来看个需求:下面的表是某公司最近两年在全国各地的销售额,我们想要知道xiang华北地区的销售情况、北京地区的销售情况等,我们使用两次Groupby操作就能得到结果,也可以使用rollup实现聚合结果
某公式销售额情况.png

  // 加载销售额数据
  val salesDF = spark.read .csv(inputFile)
rollup的使用:

rollup($“area”, $“regional”, $“year”) 会先按照 area、regional、year分组;然后按照area、regional分组、然后再按照area分组,最后进行全表分组。后面接聚合函数,此处使用的是sum

 salesDF.rollup($"area", $"regional", $"year")
.sum("sales")
rollup之后的结果查看:

rollup.png


cube的使用

cube就更厉害了 salesDF.cube($“area”, $“regional”, $“year”) ;cube 会先按照(area、regional、yea)分组;然后是 (area、regional )、(area、year )、(area )、(regional、year )、( regiona )、(year )分组;最后进行全表分组。

    salesDF.cube($"area", $"regional", $"year")  .sum("sales")
cube结果:

cube.png

### 优化 Spark SQL Grouping Sets 性能的方法 当使用 `GROUPING SETS` 进行多维度聚合时,可能会遇到性能瓶颈。这是因为 `GROUPING SETS` 的实现本质上会触发多个独立的分组操作[^1]。以下是几种常见的优化策略: #### 1. 开启 Cost-Based Optimizer (CBO) 通过启用 CBO (`spark.sql.cbo.enabled=true`) 可以让查询优化器基于统计信息选择更优的执行计划。对于复杂的 `GROUP BY` `GROUPING SETS` 查询,这可能显著提升性能。 ```scala // 设置 CBO 参数 spark.conf.set("spark.sql.cbo.enabled", "true") // 创建临时视图并收集统计信息 frmUsers.createOrReplaceTempView("user_info") spark.sql("ANALYZE TABLE user_info COMPUTE STATISTICS FOR COLUMNS locale, birthYear") ``` #### 2. 减少数据量 在处理大规模数据集时,可以通过过滤条件提前减少输入数据规模。例如,在应用 `GROUPING SETS` 前先筛选掉不必要的记录[^3]。 ```sql SELECT locale, gender, COUNT(*), SUM(salary) FROM ( SELECT * FROM user_info WHERE birthYear > 1980 -- 提前过滤无关数据 ) t GROUP BY GROUPING SETS ((locale), (gender)) ``` #### 3. 调整 Shuffle Partition 数量 默认情况下,Shuffle 操作可能导致过多的小文件或资源争抢。适当调整 `shuffle.partitions` 参数可以改善这一情况[^1]。 ```scala // 动态设置 shuffle partitions spark.conf.set("spark.sql.shuffle.partitions", "500") ``` #### 4. 使用 CubeRollup 替代 Grouping Sets 如果业务场景允许,可以用 `ROLLUP` 或 `CUBE` 来替代部分 `GROUPING SETS` 场景。这些扩展语法通常会有更好的底层优化支持[^2]。 ```sql -- 使用 ROLLUP 替代特定的 GROUPING SETS SELECT locale, gender, COUNT(*), SUM(salary) FROM user_info GROUP BY ROLLUP(locale, gender); ``` #### 5. 缓存中间结果 对于多次使用DataFrame 或表,建议缓存其计算结果以避免重复扫描原始数据源[^3]。 ```scala val filteredData = frmUsers.filter($"birthYear" > 1990).cache() filteredData.groupBy(...).agg(...) ``` #### 6. 并行化复杂逻辑 将某些预处理步骤拆分为单独的任务运行,并利用广播变量或其他技术加速小表连接[^1]。 --- ### 示例代码 以下是一个完整的示例,展示如何综合运用以上技巧来优化 `GROUPING SETS` 查询: ```scala import org.apache.spark.sql.functions._ // 启用 CBO 并分析列级统计信息 spark.conf.set("spark.sql.cbo.enabled", "true") spark.sql("ANALYZE TABLE user_info COMPUTE STATISTICS FOR COLUMNS locale, gender, salary") // 定义窗口函数用于后续排序需求 val winSpec = Window.orderBy(desc("total_salary")) // 执行带 GROUPING SETS 的高效查询 val resultDf = spark.sql(""" SELECT locale, gender, COUNT(*) AS cnt_users, SUM(salary) AS total_salary FROM user_info WHERE birthYear >= 1990 AND salary IS NOT NULL GROUP BY GROUPING SETS((locale), (gender), ()) """) resultDf.withColumn("rank", rank().over(winSpec)).show(10) // 如果需要进一步调优,可手动控制分区数 spark.conf.set("spark.sql.shuffle.partitions", "300") ``` ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值