Spark运行流程( RDD 的job调度流程: Driver内部运行流程)

Spark在遇到action算子时会触发Job任务,DAGScheduler构建执行流程图并划分阶段,TaskScheduler负责TaskSet的均衡分配给executor执行,Driver进行任务监控。
        Spark程序, 遇到一个action算子, 就会产生一个Job的任务, 首先就会先SparkContext对象, 同时在其底层也会创建DAGScheduler TaskScheduler
        首先DAGScheduler负责生成DAG的执行流程图, 划分有多少个阶段, 并且确定每个阶段内部有多少个线程, 然后将每个阶段的线程放置到一个TaskSet,然后提交到TaskScheduler
        接着TaskScheduler接收到TaskSet,然后依次遍历每一个阶段的TaskSet, 将其尽可能均衡分配给对应的
executor来运行, 从而完成所有的阶段的执行操作
        最后Driver负责任务的监控管理即可....

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值