【Spark九十七】RDD API之aggregateByKey

1. aggregateByKey的运行机制

 

  /**
   * Aggregate the values of each key, using given combine functions and a neutral "zero value".
   * This function can return a different result type, U, than the type of the values in this RDD,
   * V. Thus, we need one operation for merging a V into a U and one operation for merging two U's,
   * as in scala.TraversableOnce. The former operation is used for merging values within a
   * partition, and the latter is used for merging values between partitions. To avoid memory
   * allocation, both of these functions are allowed to modify and return their first argument
   * instead of creating a new U.
   */
  def aggregateByKey[U: ClassTag](zeroValue: U, partitioner: Partitioner)(seqOp: (U, V) => U,
      combOp: (U, U) => U): RDD[(K, U)] = {
    // Serialize the zero value to a byte array so that we can get a new clone of it on each key
    val zeroBuffer = SparkEnv.get.serializer.newInstance().serialize(zeroValue)
    val zeroArray = new Array[Byte](zeroBuffer.limit)
    zeroBuffer.get(zeroArray)

    lazy val cachedSerializer = SparkEnv.get.serializer.newInstance()
    val createZero = () => cachedSerializer.deserialize[U](ByteBuffer.wrap(zeroArray))

    combineByKey[U]((v: V) => seqOp(createZero(), v), seqOp, combOp, partitioner)
  }

从aggregateByKey的源代码中,可以看出

a.aggregateByKey把类型为(K,V)的RDD转换为类型为(K,U)的RDD,V和U的类型可以不一样,这一点跟combineByKey是一样的,即返回的二元组的值类型可以不一样

b.aggregateByKey内部是通过调用combineByKey实现的,combineByKey的createCombiner函数逻辑由zeroValue这个变量实现,zeroValue作为聚合的初始值,通常对于加法聚合则为0,乘法聚合则为1,集合操作则为空集合

c.seqOp在combineByKey中的功能是mergeValues,(U,V)=>U

d.combOp在combineByKey中的功能是mergeCombiners

 

 

2. aggregateByKey举例

2.1 求均值

 

val rdd = sc.textFile("气象数据")  
val rdd2 = rdd.map(x=>x.split(" ")).map(x => (x(0).substring("从年月日中提取年月"),x(1).toInt))  
val zeroValue = (0,0) 
val seqOp= (u:(Int, Int), v:Int) => {  
 (u._1 + v, u._2 + 1)  
}  
  
val compOp= (c1:(Int,Int),c2:(Int,Int))=>{  
  (u1._1 + u2._1, u1._2 + u2._2)  
}  
  
  
val vdd3 = vdd2.aggregateByKey(  
zeroValue ,  
seqOp,  
compOp
)  
  
rdd3.foreach(x=>println(x._1 + ": average tempreture is " + x._2._1/x._2._2) 

 

从求均值的实现来看,aggregate通过提供零值的方式,避免了combineByKey中的createCombiner步骤(createCombiner本质工作就是遇到第一个key时进行初始化操作,这个初始化不是提供零值,而是对第一个(k,v)进行转换得到c的初始值))

 

 

 

 

SparkScala编程语言创建的大规模数据处理框架)的核心数据结构是弹性分布式数据集(RDD,Resilient Distributed Dataset)。在Spark中,RDD算子(Operators)是一系列可以应用于RDD的函数,它们负责执行任务并生成新的RDD,实现了数据的高效并行处理。以下是几种主要类型的RDD算子: 1. **基础算子**: - `map`: 应用一个函数到每个元素上,返回一个新的RDD。 - `filter`: 选择满足特定条件的元素,返回一个新的RDD。 - `flatMap`: 对每个元素应用一个函数,然后展开结果,相当于`map`之后再`flatten`。 - `reduceByKey` 和 `aggregateByKey`: 分组数据并进行累积操作,如求和、平均等。 2. **转换算子**: - `groupByKey` 和 `cogroup`: 将数据分组并返回键及其对应的列表。 - `join` 和 `leftOuterJoin`, `rightOuterJoin`, `fullOuterJoin`: 按照键进行连接,可以选择不同类型的数据匹配。 - `union`, `subtract`, `intersection`: 结合、排除和取交两个RDD。 3. **动作算子**: - `count`: 计算RDD中元素的数量。 - `collect` 和 `take`: 将整个RDD收集到内存,用于查看数据。 - `saveAsTextFile` 或 `write` (如Parquet, JSON): 将结果保存到磁盘或特定格式的文件中。 4. **分区算子**: - `repartition`: 改变RDD的分区数,提高后续操作的性能。 - `coalesce`: 合并部分分区,减少网络通信。 5. **特殊算子**: - `sortByKey` 和 `top/k`: 根据键值排序,或返回前k个元素。 - `sample`: 随机抽样数据。 这些算子都是无状态的,即不会记住之前的操作,适合大规模并行处理。每个算子都在分布式环境中执行,充分利用集群资源。SparkAPI设计鼓励用户采用懒惰计算(lazy evaluation),只有当结果被需要时才会真正触发计算,这种延迟执行有助于优化性能和资源利用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值