019 spark on yarn(Job的运行流程,可以对比mapreduce的yarn运行)

本文详细介绍了Spark在Yarn集群上的两种部署模式:client和cluster,对比了两种模式下Driver程序的不同运行位置,并解释了这两种模式下资源申请、job调度及Task执行的具体流程。

1.大纲

  spark应用构成:Driver(资源申请、job调度) + Executors(Task具体执行)

  Yarn上应用运行构成:ApplicationMaster(资源申请、job调度) + Containers(Task具体执行)

  Driver有两种运行模式,导致结构不太一样

 

2.client的情形

  Driver运行在提交job的机器上(执行spark-submit的机器)
  Driver运行在提交jar的机器上,任务运行在yarn上;Driver的功能是:申请资源运行AM,Job调度
  AM负责SparkTask运行所需要的资源的申请

 

  重要的步骤::
  Driver --> 向RM申请资源 --> 启动AM --> 向RM申请TAsk执行的资源
   |
   | Job调度
   |
  Executors中执行Task任务

 

  

 

3.cluster的情形

  

  注意点:Driver运行在nodemanager中。

  然后,才会出现向下的三条虚线 

  Driver和Application合并
  AM <====> Driver:这个地方其实就是AM,在上图可以看见,Application Master中包含了spark的上下文,yarnCluster的调度。
  流程基本和MR类似

  

转载于:https://www.cnblogs.com/juncaoit/p/6394385.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值