Spark RDD常用的函数

本文详细介绍了Spark中RDD的基本操作,包括创建、转换和行动操作。涵盖了如何从文件或内存创建RDD,各种转换方法如map、filter、flatMap等的使用场景,以及reduce、fold和aggregate等行动操作的实现细节。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 创建RDD-创建
    • JavaSparkContext.textFile(filename):从文件中创建RDD
    • JavaSparkContext.parallelize(List):从内存中的数据创建RDD
  • 转化RDD-转化操作

    • map():对RDD中的每个元素进行操作,返回值的类型不必和原RDD的元素值类型相等。

      JavaRDD<Pair<Integer, Integer>> numbers = integers.map(new Function<Integer,                            Pair<Integer, Integer>>() {
              public Pair<Integer, Integer> call(Integer integer) throws Exception {
                  return new Pair<Integer, Integer>(integer, 1);
              }
          });
    • filter():对原RDD中的每个元素进行筛选,选出符合条件的元素,组成新的RDD

      JavaRDD<String> pythonRDD = lines.filter(new Function<String, Boolean>() {
              public Boolean call(String s) throws Exception {
                  if(s.contains("Python"))
                          return true;
                  return false;
              }
          });
    • flatmap():当我们想由原RDD中的一个元素返回多个元素的时候,我们就使用这个转化函数

      JavaRDD<String> words = lines.flatMap(line -> Arrays.asList(line.split(" ")).iterator());
      
    • union()、intersection()、subtract()、cartesian():分别是对两个RDD计算并集,交集,减法以及笛卡儿积

    • mapToPair():当我们想从原RDD中的每个元素返回一个K,V类型的元素的时候使用该函数:
      JavaPairRDD<String, Integer> result = words.mapToPair(word->
                  new Tuple2<String, Integer>(word,1)).reduceByKey((a, b) -> a+b);
  • 行动操作

    • reduce():假设一个RDD的元素类型是X,则reduce的作用就是将第一个X和第二个X进行reduce操作然后再放入RDD中,一直到RDD中还剩最后一个X,则将X返回

      Integer sum = integers.reduce(new Function2<Integer, Integer, Integer>() {
              public Integer call(Integer integer, Integer integer2) throws Exception {
                  return integer + integer2;
              }
          });
    • reduceByKey(): 这里要求调用RDD是JavaPairRDD而不是JavaRDD,相当于自动将每个Key值相同的元素整合在一起,让我们通过该函数来确认Value的值

      JavaPairRDD<String, Integer> result = words.mapToPair(word->
                  new Tuple2<String, Integer>(word,1)).reduceByKey((a, b) -> a+b);
    • fold():和reduce相似,只不过他可以指定一个初始值,针对每个分区(注意一个RDD会有多个分区存在)首先使用初始值和第一个Reduce进行操作,然后就和reduce一致,具体见下图:(http://blog.jasonding.top/2015/07/12/Spark/%E3%80%90Spark%E3%80%91RDD%E6%93%8D%E4%BD%9C%E8%AF%A6%E8%A7%A34%E2%80%94%E2%80%94Action%E7%AE%97%E5%AD%90/
      image
      fold函数
      image
      reduce函数

    • aggregate():因为reduce函数只能返回RDD元素值的类型,比如说RDD的元素类型是Integer,那么reduce只能返回Integer类型的元素,当我们想返回和RDD元素值类型不同的时候,就使用aggregate函数,假设我们想让aggregate返回类型A,那么如下所示:第一个参数a是每个分区的初始化值,第二个参数是对每个分区进行处理的函数,每个分区最后处理的结果就是A类型的数据,第三个参数是对每个分区返回的结果再进行处理,也就是合并。具体流程如下图说是:
      A a = new A();//进行初始化
      A result = integers.aggregate(a, new Function2<A,Integer,A>{
              public A call(A a, Integer integer){
                  //自己实现
      
              }}, new Function2<A, A, A>{
              public A call(A a, A a1){
                  //自己实现
      
              }});

    image

### Spark RDD 宽依赖与窄依赖 RDD 和其父 RDD 之间的依赖关系分为两种类型:窄依赖(narrow dependency)和宽依赖(wide dependency)。在窄依赖中,子 RDD 中的每个分区最多只依赖于单个父 RDD 的一个分区。这种特性使得计算可以在同一节点上完成,而不需要跨网络传输数据[^1]。 相比之下,在宽依赖的情况下,子 RDD 的某个分区可能依赖多个父 RDD 的不同分区。这通常发生在诸如 `groupByKey` 或者 `reduceByKey` 这样的聚合操作之后。由于涉及的数据重分布,宽依赖会触发 shuffle 操作,从而增加处理时间和资源消耗。 ### Rich Functions (富函数) 使用方法及示例 为了提高开发效率以及代码可读性,Spark 提供了一系列丰富的转换函数用于简化常见的编程模式。这些高阶函数可以直接应用于 RDD 上面,并允许传递自定义逻辑作为参数。下面是一些常用的富函数及其应用实例: #### mapPartitions 函数函数类似于普通的 `map()` ,但是它一次接收整个分区而不是单独元素来进行映射变换。这种方式减少了反序列化的次数,因此对于大型对象特别有用。 ```python def process_partition(iterator): results = [] for item in iterator: result = some_expensive_computation(item) results.append(result) return iter(results) rdd.mapPartitions(process_partition).collect() ``` #### foreachPartition 函数 当只需要遍历所有元素执行某些副作用操作而不关心返回值时可以选择该方法。比如向外部存储写入数据流就是典型场景之一。 ```python def save_to_db(partition_data): connection = establish_database_connection() # 建立数据库连接 try: with connection.cursor() as cursor: for record in partition_data: insert_into_table(cursor, record) finally: close_database_connection(connection) rdd.foreachPartition(save_to_db) ``` #### aggregateByKey 函数 这是一个非常强大的组合键值对类型的算子,能够有效地减少中间状态保存开销的同时实现复杂的汇总统计需求。 ```python initial_value = ("", 0) merge_value_fn = lambda acc, value: max(acc[1], len(value)), sum([len(x) for x in [acc[0]] + list(value)]) combine_accums_fn = lambda a, b: (max(a[0][1],b[0][1]),a[1]+b[1]) rdd.aggregateByKey(initial_value)(merge_value_fn, combine_accums_fn).collect() ``` 通过上述例子可以看出,利用好这些高级 API 可以为实际项目带来显著的好处——不仅限于性能上的提升还包括更简洁优雅的设计风格。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值