Spark性能调优之调节task并行度

本文探讨了Spark作业中并行度的重要性,解释了如何合理设置task数量以充分利用集群资源。不调节并行度可能导致资源浪费,而根据官方建议,task数量应设置为CPU核心总数的2~3倍,以保持持续的计算任务,提高作业执行速度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Spark并行度是什么?

我们写的spark作业就称为application;
一个application有多个job(一个action比如:collect操作触发一个job);
每个job在发生shuffle(比如:reduceByKey)时,就会被拆成一个stage;
每个stage被拆为多个task,task被分配到executor上执行,一个task会有一个线程去执行,一个task处理一小片数据。

reduceByKey,前为stage0,后为stage1 :
stage0执行到reduceByKey时,会为后面stage1的每个task,都创建一个文件;
stage1的每个task,会在各个节点上的各个task创建的属于自己的文件(每个文件里,一定存放相同key对应的values; 但一个文件可能有多个key,及其对应的values; 相同key的values一定是进入同一个文件),拉取数据;
stage1的每个task所拉取到的数据,一定是相同key对应的数据。因为针对相同key对应的values,才能去执行执行自定义的function操作(+)。

spark并行度:指的就是spark作业中,各个stage的task数量。也就代表了spark作业在各个阶段(stage)的并行度。

问题:

如果不调节并行度,会有什么后果?

假设:已经给spark作业分配了足够多的资源,比如100个executor,每个executor有5G,4个cpu core。但task设置的很少,假如只设置了200个task。 平均下,每个executor只分配了2个task(占用2个cpu core),那么同时运行的task也就只有200个。每个executor还剩下2个cpu core被浪费掉了。

解决:

应该合理的设置并行度,充分利用集群资源。比如上面的例子,集群共有400 cpu core,也就是可以并行跑400个task。那就应该将application的并行度至

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值