spark中application、driver、job、stage的理解

本文解析了Spark中的关键术语,包括Application、Driver、Job、Task和Stage。解释了这些概念的作用及相互之间的联系,并探讨了它们如何影响Spark的执行效率。

Spark中:Application,Driver,Job,Task,Stage理解

看了spark的原始论文和相关资料,对spark中的一些经常用到的术语做了一些梳理,记录下。

1,Application

application(应用)其实就是用spark-submit提交的程序。比方说spark examples中的计算pi的SparkPi。一个application通常包含三部分:从数据源(比方说HDFS)取数据形成RDD,通过RDD的transformation和action进行计算,将结果输出到console或者外部存储(比方说collect收集输出到console)。

2,Driver

 Spark中的driver感觉其实和yarn中Application Master的功能相类似。主要完成任务的调度以及和executor和cluster manager进行协调。有client和cluster联众模式。client模式driver在任务提交的机器上运行,而cluster模式会随机选择机器中的一台机器启动driver。从spark官网截图的一张图可以大致了解driver的功能。

 

3,Job

 Spark中的Job和MR中Job不一样不一样。MR中Job主要是Map或者Reduce Job。而Spark的Job其实很好区别,一个action算子就算一个Job,比方说count,first等。

4, Task

Task是Spark中最新的执行单元。RDD一般是带有partitions的,每个partition的在一个executor上的执行可以任务是一个Task。 

5, Stage

 Stage概念是spark中独有的。一般而言一个Job会切换成一定数量的stage。各个stage之间按照顺序执行。至于stage是怎么切分的,首选得知道spark论文中提到的narrow dependency(窄依赖)和wide dependency( 宽依赖)的概念。其实很好区分,看一下父RDD中的数据是否进入不同的子RDD,如果只进入到一个子RDD则是窄依赖,否则就是宽依赖。宽依赖和窄依赖的边界就是stage的划分点。从spark的论文中的两张截图,可以清楚的理解宽窄依赖以及stage的划分。

 

至于为什么这么划分,主要是宽窄依赖在容错恢复以及处理性能上的差异(宽依赖需要进行shuffer)导致的。

 

 关于spark这几个术语的了解暂时就这么多,可能不是很到位,不过暂且就这么多了。

 

### SparkStage Job 的关系及执行流程 在 Spark 的分布式计算框架中,Stage Job 是两个重要的抽象层次,它们共同构成了任务的执行计划调度机制。 #### 1. **Job 的定义** Job 是由 Driver 程序解析 Action 操作生成的任务单元[^3]。每当用户调用一个 Action(如 `collect` 或 `saveAsTextFile`),Spark 就会触发一个新的 Job 来处理该操作所涉及的所有 Transformation 数据集。每个 Job 对应于一组完整的计算过程,旨在实现特定的目标输出。 #### 2. **Stage 的定义** StageJob 的进一步细分单位,基于 RDD 的宽依赖(Shuffle Dependency)来划分[^1]。具体来说: - 如果存在 Shuffle 操作,则会在 Shuffle 边界处拆分出新的 Stage。 - 没有 Shuffle 的连续 Transformation 属于同一个窄依赖链路,会被打包成单个 Stage。 因此,在实际应用中,一个 Job 可能包含多个 Stage,而这些 Stage 的数量取决于是否存在 Shuffle 操作以及其频率。 #### 3. **Stage Job 的关系** - **从属关系**:一个 Job 包含若干个 Stage,即 StageJob 的组成部分[^3]。 - **划分依据**:Stage 的边界是由 Shuffle 操作决定的;每次遇到 Shuffle 操作都会创建新 Stage[^4]。 - **执行顺序**:Stages 按照依赖关系依次执行,前一 Stage 的输出作为下一 Stage 的输入[^1]。 #### 4. **执行流程概述** 以下是 Spark 应用程序的整体执行流程及其与 Job Stage 的关联: 1. 用户提交 Spark Application 后,Driver 程序负责分析代码逻辑并识别其中的动作(Action)。 (此过程中生成了一个或多个 Job) 2. DAGScheduler 接收来自 Driver 的请求后,根据 Transformation 构建有向无环图 (DAG),并将 Job 划分为一系列相互依赖的 Stages[^1]。 3. TaskScheduler 负责将每一个 Stage 转化为具体的 Tasks 并分配给 Executors 执行[^2]。Tasks 数量通常等于对应 Stage 下分区的数量。 4. Executor 上运行的具体线程则逐一完成各自承担的小型工作——也就是一个个独立的 Task。 5. 整体来看,整个作业流遵循如下结构: *ApplicationJobs → Stages → Tasks* --- ### 示例说明 假设我们正在运行经典的 WordCount 程序,它仅包含一次 ReduceByKey 操作引发了一次 Shuffle。此时: - 此 Application 内部只有一个 Job; - 因为出现了 Shuffle 操作,所以产生了两个 Stage —— 第一个是 Map 阶段,另一个是 Reduce 阶段; - 若原始数据划分为 N 份,则第一阶段会产生 N 项 Task,第二阶段可能产生 M 项 Task(M<=N)[^3]。 ```python text_file = sc.textFile("hdfs://...") counts = text_file.flatMap(lambda line: line.split()) \ .map(lambda word: (word, 1)) \ .reduceByKey(lambda a, b: a + b) counts.saveAsTextFile("output") ``` 在此例子中,“flatMap”“map”属于同一 Stage,因为两者之间不存在任何需要重新分布数据的操作。“reduceByKey”,由于引入了 Shuffle,形成了下一个 Stage。 --- ### 总结 综上所述,Job 表达的是更高层面上的一组连贯动作集合,而 Stage 更加细化到了如何通过不同类型的算子组合达成目标层面。两者的协作使得复杂的大规模数据分析变得高效可行。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值