SparkRDD算子--aggregateByKey算子

语法

val newRdd = oldRdd.aggregateByKey(zeroValue:U,[partitioner: Partitioner]) (seqOp: (U, V) => U,combOp: (U, U) => U)

zeroValue:给每一个分区中的每一个key一个初始值;
seqOp:函数用于在每一个分区中用初始值逐步迭代value;
combOp:函数用于合并每个分区中的结果。

源码

def aggregateByKey[U](zeroValue : U)(seqOp : scala.Function2[U, V, U], combOp : scala.Function2[U, U, U])(implicit evidence$3 : scala.reflect.ClassTag[U]) : org.apache.spark.rdd.RDD[scala.Tuple2[K, U]] = { /* compiled code */ }

作用

reduceByKey的繁琐版,本质也是进行分组聚合。

在kv对的RDD中,按key将value进行分组合并,合并时,将每个value和初始值作为seq函数的参数,进行计算,返回的结果作为一个新的kv对,然后再将结果按照key进行合并,最后将每个分组的value传递给combine函数进行计算(先将前两个value进行计算,将返回结果和下一个value传给combine函数,以此类推),将key与计算结果作为一个新的kv对输出。

例子

package com.day1

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object oper {
    def main(args: Array[String]): Unit = {
        val config:SparkConf = new SparkConf().setMaster("local[*]").setAppName("wordCount")

        // 创建上下文对象
        val sc = new SparkContext(config)

        // aggregateByKey算子
        val arrayRdd = sc.makeRDD(Array(("张三",1),("李四",2),("王五",3),("刘六",4),("张三",5),("李四",6),("张三",7),("刘六",8)),2)

        val aggregateRdd = arrayRdd.aggregateByKey(0)(math.max(_,_),_+_)
        aggregateRdd.collect().foreach(println)
    }
}


输入
("张三",1) ("李四",2) ("王五",3) ("刘六",4) 
("张三",5) ("李四",6) ("张三",7) ("刘六",8)
输出
(张三,8)
(刘六,12)
(李四,8)
(王五,3)

示意图

在这里插入图片描述

SparkScala编程语言创建的大规模数据处理框架)的核心数据结构是弹性分布式数据集(RDD,Resilient Distributed Dataset)。在Spark中,RDD算子(Operators)是一系列可以应用于RDD的函数,它们负责执行任务并生成新的RDD,实现了数据的高效并行处理。以下是几种主要类型的RDD算子: 1. **基础算子**: - `map`: 应用一个函数到每个元素上,返回一个新的RDD。 - `filter`: 选择满足特定条件的元素,返回一个新的RDD。 - `flatMap`: 对每个元素应用一个函数,然后展开结果,相当于`map`之后再`flatten`。 - `reduceByKey` 和 `aggregateByKey`: 分组数据并进行累积操作,如求和、平均等。 2. **转换算子**: - `groupByKey` 和 `cogroup`: 将数据分组并返回键及其对应的列表。 - `join` 和 `leftOuterJoin`, `rightOuterJoin`, `fullOuterJoin`: 按照键进行连接,可以选择不同类型的数据匹配。 - `union`, `subtract`, `intersection`: 结合、排除和取交两个RDD。 3. **动作算子**: - `count`: 计算RDD中元素的数量。 - `collect` 和 `take`: 将整个RDD收集到内存,用于查看数据。 - `saveAsTextFile` 或 `write` (如Parquet, JSON): 将结果保存到磁盘或特定格式的文件中。 4. **分区算子**: - `repartition`: 改变RDD的分区数,提高后续操作的性能。 - `coalesce`: 合并部分分区,减少网络通信。 5. **特殊算子**: - `sortByKey` 和 `top/k`: 根据键值排序,或返回前k个元素。 - `sample`: 随机抽样数据。 这些算子都是无状态的,即不会记住之前的操作,适合大规模并行处理。每个算子都在分布式环境中执行,充分利用集群资源。Spark的API设计鼓励用户采用懒惰计算(lazy evaluation),只有当结果被需要时才会真正触发计算,这种延迟执行有助于优化性能和资源利用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

寒 暄

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值