spark更改分区_如何在spark数据框中强制重新分区?

这篇博客探讨了在Spark中如何强制DataFrame在不同操作之间重新分区的问题。作者指出,由于Spark的懒惰评估特性,repartition操作不会立即执行。为了解决这个问题,他们建议在需要时使用`count()`或`first()`来触发materialization。此外,推荐在减少分区数时使用`coalesce()`以避免全shuffle。最后,博客通过一个测试案例展示了即使在指定repartition后,Spark也可能在优化过程中删除该步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

我有许多火花数据帧,我需要在其中执行以下操作:

1) load a single spark dataframe

2) select rows from it

3) merge it with all of the previous spark dataframes

现在,上述每个操作都需要不同数量的分区.选择行需要许多分区,例如100个分区.合并需要很少的分区,比如1​​0个分区.

所以,我真的希望它像这样工作:

1) load a single spark dataframe

1.5) repartition into 100 partitions

2) select rows from it

2.5) repartition into 10 partitions

3) merge it with all of the previous spark dataframes

现在,如何强制它在步骤1和2之间以及2到3之间重新分配?

我知道当我调用data = data.repartition(7)时,它被懒惰地评估,因此它只在实际保存时重新分区.

所以,我一直这样做:

1) load a single spark dataframe

1.5) repartition into 100 partitions

1.75) `df.count()` *just* to force materialization

2) select rows from it

2.5) repartition into 10 partitions

2.75) `df.count()` *just* to force materialization

3) merge it with all of the previous spark dataframes

有没有更好的方法强迫它在这里重新分配?有没有比在数据帧上运行count()更好的方法?

解决方法:

由于对spark中数据帧的所有转换都进行了懒惰评估,因此您需要执行一个操作来实际执行转换.目前没有其他方法可以强制进行转换.

可以在documentation中找到所有可用的数据帧操作(查看操作).在你的情况下,而不是使用count()来强制转换,你可以使用first(),这应该是显着更便宜.

在步骤2.5中,您可以使用coalesce()替换repartition(),因为它将避免完全shuffle.当新的分区数量少于之前时,这通常是有利的,因为它将最小化数据移动.

编辑:

如果您不使用任何操作,只需执行以下操作即可回答您的问题:1)重新分区,2)火花数据帧转换,3)重新分区.由于优化火花对变换执行,似乎并不总是遵循该顺序.我制作了一个小测试程序来测试它:

val df = spark.sparkContext.parallelize(Array((1.0,"a"),(2.0,"b"),(3.0,"c"),(1.0,"d"),(2.0,"e"),(3.0,"f"))).toDF("x", "y")

val df1 = df.repartition(10).filter($"x" =!= 1.0).repartition(5).filter($"y" =!= "b")

df1.explain(true)

这将返回有关如何计算数据帧的信息.

== Parsed Logical Plan ==

'Filter NOT ('y = b)

+- Repartition 5, true

+- Filter NOT (x#5 = 1.0)

+- Repartition 10, true

+- Project [_1#2 AS x#5, _2#3 AS y#6]

+- LogicalRDD [_1#2, _2#3]

== Analyzed Logical Plan ==

x: double, y: string

Filter NOT (y#6 = b)

+- Repartition 5, true

+- Filter NOT (x#5 = 1.0)

+- Repartition 10, true

+- Project [_1#2 AS x#5, _2#3 AS y#6]

+- LogicalRDD [_1#2, _2#3]

== Optimized Logical Plan ==

Repartition 5, true

+- Project [_1#2 AS x#5, _2#3 AS y#6]

+- Filter ((NOT (_1#2 = 1.0) && isnotnull(_2#3)) && NOT (_2#3 = b))

+- LogicalRDD [_1#2, _2#3]

== Physical Plan ==

Exchange RoundRobinPartitioning(5)

+- *Project [_1#2 AS x#5, _2#3 AS y#6]

+- *Filter ((NOT (_1#2 = 1.0) && isnotnull(_2#3)) && NOT (_2#3 = b))

+- Scan ExistingRDD[_1#2,_2#3]

从这里可以看出,重新分区(10)步骤不包括在内,似乎在优化过程中已被删除.

标签:python,apache-spark,distributed,pyspark

来源: https://codeday.me/bug/20190608/1196402.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值