spark on yarn 的运行模式

本文介绍了Spark任务的提交方式,包括使用spark-submit命令,可选择yarn cluster和yarn client提交。还阐述了任务提交到Spark后的执行机制,如RDD object被DAG schedule分阶段,任务由task schedule分配到worker执行,DAG schedule有容错机制,application master与resource manager通信分配资源。

任务提交方式
sudo -u hadoop /srv/soft/spark-2.4.0-bin-hadoop2.7/bin/spark-submit
–master yarn
–deploy-mode cluster
–num-executors 5
–driver-memory 1g
–executor-memory 1g
–executor-cores 1
–files /srv/soft/spark-2.4.0-bin-hadoop2.7/conf/hive-site.xml
–class com.wutong.autopai.service.ParseIotLogJsonToHive
/opt/iot_log_parse/iot_log_parse.jar ${TODAY} ${MODE}

spark 服务applicationMaster ,executor,worker
yarn 服务 resource manager
分为提集群yarn cluster提交和 yarn client 提交方式
任务提交到spark 后 ,RDD object 被 DAG schedule 分成不同的阶段,来保证队列的不同阶段快照,每个队列会的任务通过task schedule 进行 分配任务 到 worker,每一个worker 通过 task.run方法 调取 executer 来执行任务。

DAG schedule 有容错机制,可以保存队列的快照,如果一旦出错,就会回滚

application master 通信 resource manager ,来分配 driver 的context,来调动资源

spark 的类继承图
待补充

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值