几张图 彻底 搞懂 窄依赖 和 宽依赖

本文深入探讨了Spark中RDD(弹性分布式数据集)的窄依赖和宽依赖概念,通过源码解析,明确了窄依赖为1-1关系,其余均为宽依赖,纠正了常见误解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

几张图搞懂 RDD(Resilient Distributed Datasets) 窄依赖 和 宽依赖:

Dependency.scala 源码里类图关系如下:

OneToOneDependency[T] 和 RangeDependency[T] 对应的RDD 依赖关系如下:

 

其中RangeDependency[T] 只是在 UnionRDD里被使用

《Spark设计与实现》里列举了1->1 N->1 N->N 的债依赖,跟代码对不上了,代码里也没有“each partition of the parent RDD is used by at most one partition of the child RDD”注释。《Spark设计与实现》里截图如下:

结论:Spark 的窄依赖其实都是1->1的依赖关系,其它的都是宽依赖。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值