Spark之functions

本文深入探讨了Spark SQL中丰富的内置函数,包括UDF自定义函数、聚合函数、日期时间函数等多种类型,共计307个。这些函数极大简化了Spark数据分析流程,适合通过大量实践来熟练掌握。

前言

Spark源码中的org.apache.spark.sql包下有一个叫做functions.scala的文件,该文件包含了大量的内置函数,尤其是在agg中会广泛使用(不仅限于此)

这些内置函数可以极大的简化spark数据分析,到Spark2.2已经拥有307个函数,只有通过大量实践才能熟练掌握

函数分类

UDF自定义函数、聚合函数、日期时间函数、排序函数、非聚合函数、数学函数、窗口函数、字符串函数、集合函数、其他函数等,如下所示。

  1. Functions函数功能可用于DataFrame的操作。
  2. @groupname udf_funcs UDF自定义函数
  3. @groupname agg_funcs聚合函数
  4. @groupname datetime_funcs日期时间函数
  5. @groupname sort_funcs排序功能
  6. @groupname normal_funcs非聚合函数
  7. @groupname math_funcs数学函数
  8. @groupname misc_funcs其他功能
  9. @groupname window_funcs窗口函数
  10. @groupname string_funcs字符串函数
  11. @groupname collection_funcs集合函数功能
  12. @groupname DataFrames不分组支持功能
  13. @since自从1.3.0

API汇总

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

后记

看到这么多函数,是不是很happy啊,哈哈,赶紧登陆官网慢慢享受吧

`spark.sql.functions` 是 Apache Spark 中的一部分,因此安装 `spark.sql.functions` 实际上就是安装 Apache Spark。以下是不同环境下安装 Apache Spark 的常见方法: ### 本地安装 1. **下载 Spark**:从 Apache Spark 官方网站(https://spark.apache.org/downloads.html)下载适合的版本,选择合适的 Apache Hadoop 版本,下载完成后解压到指定目录。 2. **配置环境变量**: - 在 Linux 或 macOS 系统中,编辑 `.bashrc` 或 `.bash_profile` 文件,添加如下内容: ```bash export SPARK_HOME=/path/to/spark export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin ``` - 在 Windows 系统中,在系统环境变量中添加 `SPARK_HOME` 变量,值为 Spark 的解压路径,然后在 `Path` 变量中添加 `%SPARK_HOME%\bin`。 3. **验证安装**:打开终端,输入 `spark-shell` 或 `pyspark`,如果能正常启动 Spark 环境,则说明安装成功。 ### 使用 Anaconda 安装(Python 环境) 1. 创建并激活一个新的 Anaconda 环境: ```bash conda create -n spark_env python=3.8 conda activate spark_env ``` 2. 使用 `conda` 安装 PySpark: ```bash conda install pyspark ``` ### 使用 Maven 或 Gradle(Java/Scala 项目) #### Maven 在 `pom.xml` 文件中添加以下依赖: ```xml <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.12</artifactId> <version>3.3.1</version> <!-- 根据需要选择合适的版本 --> </dependency> ``` #### Gradle 在 `build.gradle` 文件中添加以下依赖: ```groovy implementation 'org.apache.spark:spark-sql_2.12:3.3.1' // 根据需要选择合适的版本 ``` 安装完成后,在 Python 代码中可以通过以下方式导入 `spark.sql.functions`: ```python from pyspark.sql import functions as F ``` 在 Scala 代码中可以通过以下方式导入: ```scala import org.apache.spark.sql.functions._ ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SunnyRivers

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值