【Spark系列5】Dataframe下常用算子API

Apache Spark DataFrame API 提供了丰富的方法来处理分布式数据集。以下是一些常见的 DataFrame API 类别和方法,但这不是一个完整的列表,因为 API 非常广泛。这些方法可以分为几个主要类别:

转换操作(Transformations)

这些方法不会立即执行,但会返回一个新的 DataFrame,通常用于构建计算的执行计划。

  • select(): 选择一列或多列。
  • filter()where(): 根据给定的条件过滤行。
  • groupBy(): 根据某一列或多列对数据进行分组。
  • sort()orderBy(): 根据一列或多列对数据进行排序。
  • join(): 将两个 DataFrame 根据指定的条件连接起来。
  • union(): 合并两个 DataFrame 的行。
  • withColumn(): 添加一个新列或替换一个现有列。
  • withColumnRenamed(): 重命名一个列。
  • drop(): 删除一列或多列。
  • distinct(): 返回一个只包含不同行的新 DataFrame。
  • groupBy().agg(): 分组后的聚合操作。
  • pivot(): 用于创建数据透视表。
  • window(): 定义窗口函数。
  • withWatermark(): 用于流数据处理中的事件时间。

动作操作(Actionsÿ

RDD和DataFrameSpark中是两种不同的数据结构,它们的算子逻辑和实现方式也有所不同。 对于RDD,其算子逻辑是基于函数式编程的,每个算子都是一个函数,接收一个RDD并返回一个新的RDD。在执行过程中,RDD算子会将函数逻辑序列化并发送到集群中的各个节点上进行执行,因此RDD的算子具有强大的灵活性和通用性。RDD的实现方式是通过分布式内存计算来实现,即将数据分区存储在集群中的多个节点上,在计算过程中将函数逻辑发送到各个节点进行并行计算,最后将结果合并返回给驱动程序。 而对于DataFrame,其算子逻辑则是基于SQL查询语言的,每个算子都是一个SQL操作,接收一个DataFrame并返回一个新的DataFrame。在执行过程中,DataFrame算子会将SQL逻辑解析为Spark SQL的物理执行计划,并通过Catalyst优化器进行优化,最终将优化后的计划转化为RDD的执行计划并交给Spark Core进行执行。DataFrame的实现方式是通过列式存储和执行计划优化来实现,即将数据按列存储,利用CPU的SIMD指令进行向量化计算,同时通过Catalyst优化器对SQL进行优化,以提高计算效率和性能。 需要注意的是,虽然RDD和DataFrame算子逻辑和实现方式上有所不同,但是它们在Spark应用程序中的使用方式是相似的,都是通过链式调用算子来构建数据处理流程,以实现复杂的数据分析和处理任务。同时,Spark也提供了API来实现RDD和DataFrame之间的转化,以便在不同场景下选择最合适的数据结构来进行计算。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

周润发的弟弟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值