OneToOneDependency 一对一依赖关系

本文深入探讨了一对一依赖关系在Spark中的实现原理,这是一种窄依赖类型,用于描述父RDD和子RDD分区之间的直接映射关系。文章通过具体的代码示例展示了如何在Scala中操作RDD,并提供了丰富的资源链接,包括GitHub、优快云、YouTube和Bilibili上的教程和视频,帮助读者更全面地理解这一概念。

OneToOneDependency 一对一依赖关系

  • Represents a one-to-one dependency between partitions of the parent and child RDDs.

更多资源

youtub视频演示

输入数据

a bc
a  

处理程序scala

package com.opensource.bigdata.spark.local.rdd.operation.dependency.narrow.n_02_RangeDependency

import com.opensource.bigdata.spark.local.rdd.operation.base.BaseScalaSparkContext

object Run1 extends BaseScalaSparkContext{

  def main(args: Array[String]): Unit = {
    val sc = pre()
    val rdd1 = sc.textFile("/opt/data/2/c.txt",2)

    println(rdd1.collect().mkString("\n"))

    //rdd1.partitions(0).asInstanceOf[org.apache.spark.rdd.HadoopPartition]

    sc.stop()
  }

}

数据处理图

一对一依赖关系

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值