spark性能调优之分配资源

本文介绍了如何通过调整Spark的executor数量、内存及CPU核心数来优化性能。通过实例讲解了不同配置下任务并行度的变化及其对执行速度的影响,并探讨了内存增加对减少磁盘I/O和提高计算效率的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

spark的分配资源主要就是 executor、cpu per executor、memory per executor、driver memory 等的调节,在我们在生产环境中,提交spark作业时,用的spark-submit shell脚本,里面调整对应的参数:

/usr/local/spark/bin/spark-submit \

--class cn.spark.sparktest.core.WordCountCluster \
--num-executors 3 \ 配置executor的数量
--driver-memory 100m \ 配置driver的内存(影响不大)
--executor-memory 100m \ 配置每个executor的内存大小
--executor-cores 3 \ 配置每个executor的cpu core数量
/usr/local/SparkTest-0.0.1-SNAPSHOT-jar-with-dependencies.jar \

首先要了解你的机子的资源,多大的内存,多少个cpu core,就根据这个实际情况去设置,能使用多少资源,就尽量去调节到最大的大小(executor的数量,几十个到上百个不等;executor内存;executor cpu core)
Spark Standalone 模式下,如果每台机器可用内存是4G,2个cpu core,20台机器,那可以设置:
20个executor;每个executor4G内存2个cpu core。
yarn 模式下,根据spark要提交的资源队列资源来考虑,如果所在队列资源为500G内存,100个cpu core,那可以设置:
50个executor;每个executor10G内存2个cpu core。
调节资源后,SparkContextDAGSchedulerTaskScheduler,会将我们的算子,切割成大量的task,提交到Applicationexecutor上面去执行。
增加每个executorcpu core,也是增加了执行的并行能力。原本20executor,每个才2cpu core。能够并行执行的task数量,就是40task
现在每个executorcpu core,增加到了5个。能够并行执行的task数量,就是100task执行的速度,提升了2.5倍。
如果executor数量比较少,那么,能够并行执行的task数量就比较少,就意味着,我们的Application的并行执行的能力就很弱。
比如有3executor,每个executor2cpu core,那么同时能够并行执行的task,就是6个。6个执行完以后,再换下一批6task
增加了executor数量以后,那么,就意味着,能够并行执行的task数量,也就变多了。比如原先是6个,现在可能可以并行执行10个,甚至20个,100个。那么并行能力就比之前提升了数倍,数十倍。相应的,性能(执行的速度),也能提升数倍~数十倍。
增加每个executor的内存量。增加了内存量以后,对性能的提升,有两点:
1、如果需要对RDD进行cache,那么更多的内存,就可以缓存更多的数据,将更少的数据写入磁盘,甚至不写入磁盘。减少了磁盘IO
2、对于shuffle操作,reduce端,会需要内存来存放拉取的数据并进行聚合。如果内存不够,也会写入磁盘。如果给executor分配更多内存以后,就有更少的数据,需要写入磁盘,甚至不需要写入磁盘。减少了磁盘IO,提升了性能。
3、对于task的执行,可能会创建很多对象。如果内存比较小,可能会频繁导致JVM堆内存满了,然后频繁GC,垃圾回收,minor GCfull GC。(速度很慢)。内存加大以后,带来更少的GC,垃圾回收,避免了速度变慢,速度变快了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值