RDD的Stage划分原理

RDD是Spark的核心数据结构,表示不可变、可分区的分布式数据集。RDD支持转化和行动操作,采用惰性计算,允许数据缓存以提升性能。窄依赖允许流水线优化,而宽依赖需要全量join,形成阶段进行计算。DAG表示RDD间的依赖关系,用于调度优化。

1. 什么是RDD

RDD(Resilient Distributed Dataset)叫做分布式数据集,是Spark 中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并行计算的集合。在Spark 中,对数据的所有操作不外乎创建RDD、转化已有RDD 以及调用RDD 操作进行求值。每个RDD 都被分为多个分区,这些分区运行在集群中的不同节点上。RDD 可以包含Python、Java、Scala 中任意类型的对象, 甚至可以包含用户自定义的对象。RDD 具有数据流模型的特点:自动容错、位置感知性调度和可伸缩性。RDD 允许用户在执行多个查询时显式地将工作集缓存在内存中,后续的查询能够重用工作集,这极大地提升了查询速度。RDD 支持两种操作:transformation操作和action操作。RDD 的转化操作是返回一个新的RDD 的操作,比如map()和filter(),而action操作则是向驱动器程序返回结果或把结果写入外部系统的操作。比如count() 和first()。
Spark 采用惰性计算模式,RDD 只有第一次在一个行动操作中用到时,才会真正计算。Spark 可以优化整个计算过程。默认情况下,Spark 的RDD 会在你每次对它们进行行动操作时重新计算。

2. 宽依赖与窄依赖

  • 定义
  1. 窄依赖是指父RDD的每个分区只被子RDD的一个分区所使用,子RDD分区通常对应常数个父RDD分区(O(1),与数据规模无关)

  2. 相应的,宽依赖是指父RDD的每个分区都可能被多个子RDD分区所使用,子RDD分区通常对应所有的父RDD分区(O(n),与数据规模有关)

窄依赖与宽依赖

  • 并行计算框架中的fork/join机制
    fork/join机制
    fork/join机制
  • 实例解释为什么窄依赖可以进行流水线优化,宽依赖无法进行流水线优化

假设需要将学校的学生分不同的线路运送到厦门,途中在上海集合等待后继续前往厦门,如图所示,最后所有学生到达厦门所需时间为6小时,这里发现学生运送过程中没必要在上海进行集合,此过程可以省略,最后的运送总时间将缩短为5小时,这就是一个窄依赖优化的例子。

在这里插入图片描述在这里插入图片描述

接下来考虑另外一种情况,当学生到达上海后,学生需要重新分配路线,比如班长带所有1班学生走1号线,组织委员带2班学生走2号线,此时就不得不在上海聚集进行人员的重新分配,这就是一个宽依赖的例子,这种情况下则无法按照上述的方式进行流水线优化

宽依赖

将例子运用到RDD的运行过程中就是一个DAG(有向无环图),可以将DAG划分为不同的阶段,窄依赖之间不需要反复join操作可以将一系列的窄依赖操作归为一个stage进行流水线优化,而宽依赖则直接归为一个stage,如下图所示

RDD的运行原理图
由此RDD的整个运行流程如下:
RDD运行过程
文章中的实例内容参考于中国大学mooc网中的厦门大学大数据课程内容
宽依赖窄依赖参考

### 回答1: sparkstage划分规则主要是根据计算的数据量、shuffle操作和按照安全策略来进行划分的。一般来说,当shuffle操作发生时,spark会自动将shuffle的操作划分为一个stage,而且在stage之间进行安全检查,以确保每个stage都可以独立运行。 ### 回答2: Spark划分stage的规则是基于RDD之间的依赖关系。一个stage是由一组可同时计算的任务组成的,这些任务可以并行执行。具体来说,Spark将一个job的所有RDD分为多个stage,并按照以下规则划分: 1. 窄依赖(Narrow Dependency):如果一个RDD的所有分区只依赖于另一个RDD的一个或多个分区,那么这个依赖称为窄依赖。这种情况下,Spark将这些RDD分区与依赖的RDD分区放在同一个stage中。在执行时,无需在不同节点间进行数据传输,因为依赖关系已经由前一个stage处理过。 2. 宽依赖(Wide Dependency):如果一个RDD的分区依赖于多个RDD的分区,那么这个依赖称为宽依赖。这种情况下,Spark会将它们的计算划分到不同的stage中。在执行时,需要进行数据传输和shuffle操作,将数据从一个stage传递到下一个stage。 3. 数据本地性(Data Locality):Spark还会考虑数据本地性来划分stage。它会尽量将RDD的计算任务分配到与数据所在位置相同的节点上,以减少数据传输的开销。 总体来说,Spark根据RDD之间的依赖关系划分stage,窄依赖的RDD会在同一个stage中计算,而宽依赖的RDD会在不同的stage中计算。通过这种划分方式,Spark可以有效地利用并行计算,并且尽量减少数据传输和shuffle操作的开销,提高计算性能。 ### 回答3: Spark划分Stage的规则主要基于宽窄依赖关系。依赖关系指的是RDD之间的血缘关系,即一个RDD依赖于其他的RDDSpark会根据这种依赖关系将任务划分为不同的Stage,其中每个Stage都包含一组可以并行执行的任务。 1. 窄依赖:当一个RDD的每一个partition只依赖于一个父RDD的一个或多个partition时,就称为窄依赖。这种情况下,Spark会尽量将窄依赖的操作合并在一个Stage中执行,以减少数据的传输和Shuffle操作。 2. 宽依赖:当一个RDD的每一个partition依赖于父RDD的多个partition时,就称为宽依赖。这种情况下,Spark会将它们划分到不同的Stage中执行。 3. Shuffle依赖:当一个RDD的某一个partition需要数据从其他partition进行整合时,就称为Shuffle依赖。Shuffle操作是比较耗时的,因此Spark会将具有Shuffle依赖的任务划分到不同的Stage中,以便进行并行处理。 4. 任务颗粒度:Spark还根据任务的颗粒度将Stage进行分割。一个Stage可以包含多个任务,而每个任务处理一个partition的数据。Spark会根据数据的分区情况和各个算子之间的依赖来调整任务颗粒度,以达到最优的执行性能。 总结来说,Spark划分Stage的规则主要包括依赖关系的窄宽划分和Shuffle操作的划分。通过合理划分Stage,可以充分发挥并行处理的优势,提高Spark应用的执行效率。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值