RDD依赖关系解密

 

1,窄依赖是指每个父RDD的一个Partition最多被子RDD的一个Partition所使用,例如mapfilterunion等都会产生窄依赖;

2,宽依赖是指一个父RDDPartition会被多个子RDDPartition所使用,例如groupByKeyreduceByKeysortByKey等操作都会产生宽依赖

 

总结:如果父RDD的一个Partition被一个子RDDPartition所使用就是窄依赖,否则的话就是宽依赖。如果子RDD中的Partition对父RDDPartition依赖的数量不会随着RDD数据规模的改变而改变的话,就是窄依赖,否则的话就是宽依赖。

 

 

特别说明:对join操作有两种情况,如果说join操作的使用每个partition仅仅和已知的Partition进行join,这次是join操作就是窄依赖;其它情况的join操作就是宽依赖;

因为是确定的partition数量的依赖关系,所有就是窄依赖,得出一个推论,窄依赖不仅包含一对一的窄依赖,还包含一对固定个数的窄依赖(也就是说对父RDD的依赖的Partition的数量不会随着RDD数据规模的改变而改变)

 

注意:

1,从后往前推理,遇到宽依赖就断开,遇到窄依赖就把当前的RDD加入到该Stage中;

2每个Stage里面的Task的数量是由该Stage中最后一个RDD的Partition的数量所决定的!

3,最后一个Stage里面的任务的类型是ResultTask,前面其它所有的Stage里面的任务的类型多事ShuffleMapTask;

4,代表当前Stage的算子一定是该Stage的最后一个计算步骤!!!


 

补充:Hadoop中的MapReduce操作中的MapperReducerSpark中基本等量算子是:mapreduceByKey

 

表面上是数据在流动,实质上算子在流动:

1, 数据不动代码动;

2, 在一个Stage内幕算子为何会流动(Pipeline)?首先是算子合并,也就是所谓的函数式编程的执行的时候最终进行函数的展开从而把一个Stage内部的多个算子合并成为一个大算子(其内部包含了当前Stage中所有算子对数据的计算逻辑);其次是由于Tranformation操作的Lazy特性!!!在具体算子交给集群的Executor计算之前首先会通过Spark FrameworkDAGScheduler)进行算子的优化(基于数据本地性的Pipeline

 

 

 

RDD依赖关系对应的执行流程可以分为两种情况:窄依赖和宽依赖。 1. 窄依赖(Narrow Dependency): - 输入RDD的每个分区只依赖于一个RDD的分区或者少数几个RDD的分区。 - 在执行过程中,每个RDD的分区会被直接传递给子RDD的对应分区进行处理,无需进行数据重组和Shuffle操作。 - 窄依赖的执行流程比较简单,数据可以高效地在各个阶段传递和处理。 2. 宽依赖(Wide Dependency): - 输入RDD的每个分区依赖于RDD的分区,需要进行数据重组和Shuffle操作。 - 在执行过程中,数据需要经过Shuffle操作重新分区并按照键(Key)进行排序和合并。 - 宽依赖的执行流程相对较复杂,会引入磁盘IO和网络传输,性能开销较大。 整个RDD的执行流程可以概括如下: 1. 根据RDD依赖关系构建有向无环图(DAG)。 2. 根据DAG图划分为个Stage,每个Stage包含一组具有相同转换操作的任务。 3. 从第一个Stage开始,按照依赖关系逐个执行Stage,根据依赖关系和分区的划分将数据传递给子RDD的对应分区。 4. 对于窄依赖,数据直接传递给子RDD进行处理;对于宽依赖,需要进行Shuffle操作,将数据进行重新分区和排序合并。 5. 每个Stage的任务可以在不同的Executor上并行执行,提高计算效率。 6. 最后一个Stage的输出结果可以写入到输出数据源(如HDFS、数据库等)。 需要注意的是,RDD依赖关系和执行流程是根据DAG图来确定的,Spark会根据DAG图的结构和依赖关系来划分任务和执行计划,以实现高效的数据处理和计算。 希望以上信息对你有所帮助!如果还有其他问题,请随时提问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值