Spark学习笔记--Transformation 和 action

本文详细解析了Apache Spark中Resilient Distributed Dataset (RDD) 的两种核心操作:Transformation 和 Action。Transformation用于创建新的RDD,而Action则用于获取结果。文中深入探讨了这些操作的具体实现和应用,包括如何利用它们进行数据过滤、映射、分组等高级数据处理任务,并解释了懒执行策略的概念。此外,还介绍了如何通过Action操作如reduce、collect和count等来获取和聚合数据集中的信息。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

转自:http://my.oschina.net/hanzhankang/blog/200275

附:各种操作的逻辑执行图 https://github.com/JerryLead/SparkInternals/blob/master/markdown/2-JobLogicalPlan.md

本文提供的是0.7.3版本中的action和transformation接口,RDD提供了两种类型的操作:transformation和action


1. transformation是得到一个新的RDD,方式很多,比如从数据源生成一个新的RDD,从RDD生成一个新的RDD
2. action是得到一个值,或者一个结果(直接将RDD cache到内存中)

所有的transformation都是采用的懒策略,就是如果只是将transformation提交是不会执行计算的,计算只有在action被提交的时候才被触发。下面介绍一下RDD的常见操作:(注意是dataset还是RDD)


transformation操作:

map(func):对调用map的RDD数据集中的每个element都使用func,然后返回一个新的RDD,这个返回的数据集是分布式的数据集

filter(func) : 对调用filter的RDD数据集中的每个元素都使用func,然后返回一个包含使func为true的元素构成的RDD

flatMap(func):和map差不多,但是flatMap生成的是多个结果

mapPartitions(func):和map很像,但是map是每个element,而mapPartitions是每个partition

mapPartitionsWithSplit(func):和mapPartitions很像,但是func作用的是其中一个split上,所以func中应该有index

sample(withReplacement,faction,seed):抽样

union(otherDataset):返回一个新的dataset,包含源dataset和给定dataset的元素的集合

distinct([numTasks]):返回一个新的dataset,这个dataset含有的是源dataset中的distinct的element

groupByKey(numTasks):返回(K,Seq[V]),也就是hadoop中reduce函数接受的key-valuelist

reduceByKey(func,[numTasks]):就是用一个给定的reduce func再作用在groupByKey产生的(K,Seq[V]),比如求和,求平均数

sortByKey([ascending],[numTasks]):按照key来进行排序,是升序还是降序,ascending是boolean类型

join(otherDataset,[numTasks]):当有两个KV的dataset(K,V)和(K,W),返回的是(K,(V,W))的dataset,numTasks为并发的任务数

cogroup(otherDataset,[numTasks]):当有两个KV的dataset(K,V)和(K,W),返回的是(K,Seq[V],Seq[W])的dataset,numTasks为并发的任务数

cartesian(otherDataset):笛卡尔积就是m*n,大家懂的

 

 

action操作:

reduce(func):说白了就是聚集,但是传入的函数是两个参数输入返回一个值,这个函数必须是满足交换律和结合律的

collect():一般在filter或者足够小的结果的时候,再用collect封装返回一个数组

count():返回的是dataset中的element的个数

first():返回的是dataset中的第一个元素

take(n):返回前n个elements,这个士driver program返回的

takeSample(withReplacement,num,seed):抽样返回一个dataset中的num个元素,随机种子seed

saveAsTextFile(path):把dataset写到一个text file中,或者hdfs,或者hdfs支持的文件系统中,spark把每条记录都转换为一行记录,然后写到file中

saveAsSequenceFile(path):只能用在key-value对上,然后生成SequenceFile写到本地或者hadoop文件系统

countByKey():返回的是key对应的个数的一个map,作用于一个RDD

foreach(func):对dataset中的每个元素都使用func

 

在spark新版中,也许会有更多的action和transformation,可以参照spark的主页

hadoop提供的接口只有map和reduce函数,spark是mapreduce的扩展,提供两类操作,而不是两个,使使用更方便,开发时的代码量会尽量的被spark的这种多样的API减少数十倍

 

转载于:https://www.cnblogs.com/gnivor/p/4923747.html

<think>嗯,用户想了解如何在Spark的Python API中使用map算子。首先,我需要回顾一下Spark的基本概念RDD的操作。记得Spark里的转换操作分为TransformationAction,map属于Transformation,需要惰性执行,只有在遇到Action时才会真正计算。 然后,用户提到的是Python API,所以应该用PySpark的语法。map算子接收一个函数,这个函数处理每一个元素,返回一个新的元素。比如,如果有一个RDD的元素是字符串,可以用map来转换成大写,或者拆分字符串之类的。 接下来,我需要结合用户提供的引用内容。比如引用[2]里的例子用了flatMap,但用户问的是map。不过例子中有sc.parallelize创建RDD,可以借鉴。可能应该展示如何用map对每个元素进行操作,比如将每个数字加1,或者处理字符串。 用户的问题可能需要一个分步骤的解释。比如,首先创建RDD,然后应用map函数,最后通过Action触发计算。比如,引用[1]中的例子展示了count()作为Action,而引用[2]中的collect()也是Action。所以在示例中,需要包含这些步骤。 另外,需要注意PySpark中的lambda函数使用,比如rdd.map(lambda x: x+1),或者更复杂的处理。可能还要提到mapflatMap的区别,但用户只问了map,所以简单带过即可。 还要考虑用户可能的实际应用场景,比如处理日志数据、文本处理等。比如,引用[3]中的例子是处理逗号分隔的字符串,可以用map来分割每个字符串为列表,或者统计词频前的处理步骤。 最后,生成相关问题,可能需要包括性能优化、与其他算子的对比,或者常见错误。比如mapflatMap的区别,如何避免在map中执行耗时操作,或者如何调试map函数中的错误。</think>### Spark Python API中map算子的用法详解 在Spark中,`map`算子是RDD(弹性分布式数据集)最基础的**Transformation操作**,其作用是对RDD中的每个元素执行指定函数,生成新的RDD。以下是具体实现步骤: --- #### 一、基础用法 1. **创建RDD** ```python from pyspark import SparkContext sc = SparkContext("local", "map_demo") data = [1, 2, 3, 4, 5] rdd = sc.parallelize(data) # 创建RDD[^1] ``` 2. **定义映射函数** - 使用Lambda表达式: ```python squared_rdd = rdd.map(lambda x: x ** 2) # 计算平方 ``` - 使用自定义函数: ```python def add_prefix(n): return f"Number_{n}" prefixed_rdd = rdd.map(add_prefix) ``` 3. **触发计算** ```python print(squared_rdd.collect()) # 输出:[1, 4, 9, 16, 25] print(prefixed_rdd.collect()) # 输出:["Number_1", ..., "Number_5"] ``` --- #### 二、结构化数据处理 适用于处理键值对或嵌套数据(如引用[4]的需求场景): ```python # 原始数据:["java,python", "java,scala", ...] text_rdd = sc.parallelize(["java,python", "java,scala"]) # 分割字符串并统计词频前处理 split_rdd = text_rdd.map(lambda s: s.split(",")) # 转为列表 flat_rdd = split_rdd.flatMap(lambda x: x) # 展开单词[^2] ``` --- #### 三、性能注意事项 1. **避免复杂操作**:`map`函数应尽量轻量,否则影响并行效率 2. **类型一致性**:确保输出类型与下游操作兼容 3. **资源复用**:可在`map`中复用已广播的变量(Broadcast Variables) --- #### 四、与flatMap的对比 | 算子 | 输入-输出关系 | 典型场景 | |----------|---------------------|----------------------| | `map` | 1元素 → 1元素 | 数据格式转换 | | `flatMap`| 1元素 → 0/N元素 | 文本分词、降维操作 | ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值