大数据实时处理3.2 掌握RDD算子

目录

一、RDD的处理过程

二、RDD算子

(一)转换算子

(二)行动算子

三、准备工作

(一)准备文件

1、准备本地系统文件

2、把文件上传到HDFS

(二)启动Spark Shell

1、启动HDFS服务

2、启动Spark服务

3、启动Spark Shell

四、掌握转换算子

(一)映射算子 - map()

1、映射算子功能

2、映射算子案例

(2)在IDEA里创建项目实现

(二)过滤算子 - filter()

1、过滤算子功能

2、过滤算子案例

课堂练习

(三)扁平映射算子 - flatMap()

1、扁平映射算子功能

2、扁平映射算子案例

方法一、利用Scala来实现

方法二、利用Spark RDD来实现

(四)按键归约算子 - reduceByKey()

1、按键归约算子功能

2、按键归约算子案例

(五)合并算子 - union()

1、合并算子功能

2、合并算子案例

(六)排序算子 - sortBy()

1、排序算子功能

2、排序算子案例

(七)按键排序算子 - sortByKey()

1、按键排序算子功能

2、按键排序算子案例

(八)连接算子

1、内连接算子 - join()

2、左外连接算子 - leftOuterJoin()

3、右外连接算子 - rightOuterJoin()

4、全外连接算子 - fullOuterJoin()

(九)交集算子 - intersection()

1、交集算子功能

2、交集算子案例

(十)去重算子 - distinct()

1、去重算子功能

2、去重算子案例

3、IP地址去重案例

(十一)组合分组算子 - cogroup()

1、组合分组算子功能

2、组合分组算子案例

五、掌握行动算子

(一)归约算子 - reduce()

1、归约算子功能

2、归约算子案例

(三)按键计数算子 - countByKey()

1、按键计数算子功能

2、按键计数算子案例

(四)前截取算子 - take(n)

1、前截取算子功能

2、前截取算子案例

(五)遍历算子 - foreach()

1、遍历算子功能

2、遍历算子案例

(六)存文件算子 - saveAsFile()

1、存文件算子功能

2、存文件算子案例


  1. 了解RDD的处理过程
  2. 掌握转换算子的使用
  3. 掌握行动算子的使用

一、RDD的处理过程

  • Spark用Scala语言实现了RDD的API,程序开发者可以通过调用API对RDD进行操作处理。RDD经过一系列的“转换”操作,每一次转换都会产生不同的RDD,以供给下一次“转换”操作使用,直到最后一个RDD经过“行动”操作才会被真正计算处理,并输出到外部数据源中,若是中间的数据结果需要复用,则可以进行缓存处理,将数据缓存到内存中。
    在这里插入图片描述

二、RDD算子

  • RDD被创建后是只读的,不允许修改。Spark提供了丰富的用于操作RDD的方法,这些方法被称为算子。一个创建完成的RDD只支持两种算子:转换(Transformation)算子和行动(Action)算子。

(一)转换算子

  • RDD处理过程中的“转换”操作主要用于根据已有RDD创建新的RDD,每一次通过Transformation算子计算后都会返回一个新RDD,供给下一个转换算子使用。
  • 常用转换算子操作的API
转换算子 相关说明
filter(func)
map(func)
flatMap(func)
groupByKey()
reduceByKey(func)

(二)行动算子

  • 行动算子主要是将在数据集上运行计算后的数值返回到驱动程序,从而触发真正的计算。
  • 常用行动算子操作的API

三、准备工作

(一)准备文件

1、准备本地系统文件

  • /home目录里创建words.txt

2、把文件上传到HDFS

  • words.txt上传到HDFS系统的/park目录里

 

  • 说明:/park是在上一讲我们创建的目录
  • 查看文件内容

(二)启动Spark Shell

1、启动HDFS服务

  • 执行命令:start-dfs.sh

 

2、启动Spark服务

  • 执行命令:start-all.sh

3、启动Spark Shell

  • 执行名命令: spark-shell --master spark://master:7077

  • 以集群模式启动的Spark Shell,不能访问本地文件,只能访问HDFS文件,加不加hdfs://master:9000前缀都是一样的效果。

四、掌握转换算子

  • 转换算子负责对RDD中的数据进行计算并转换为新的RDD。Spark中的所有转换算子都是惰性的,因为它们不会立即计算结果,而只是记住对某个RDD的具体操作过程,直到遇到行动算子才会与行动算子一起执行。

(一)映射算子 - map()

1、映射算子功能

  • map()是一种转换算子,它接收一个函数作为参数,并把这个函数应用于RDD的每个元素,最后将函数的返回结果作为结果RDD中对应元素的值。

2、映射算子案例

  • 预备工作:创建一个RDD - rdd1
  • 执行命令:val rdd1 = sc.parallelize(List(1, 2, 3, 4, 5, 6))

任务1、将rdd1每个元素翻倍得到rdd2

  • rdd1应用map()算子,将rdd1中的每个元素平方并返回一个名为rdd2的新RDD

  • 上述代码中,向算子map()传入了一个函数x = > x * 2。其中,x为函数的参数名称,也可以使用其他字符,例如a => a * 2。Spark会将RDD中的每个元素传入该函数的参数中。

  • 其实,利用神奇占位符_可以写得更简洁

  • rdd1rdd2中实际上没有任何数据,因为parallelize()map()都为转化算子,调用转化算子不会立即计算结果。

  • 若需要查看计算结果,则可使用行动算子collect()。(collect是采集或收集之意)

  • 执行rdd2.collect进行计算,并将结果以数组的形式收集到当前Driver。因为RDD的元素为分布式的,数据可能分布在不同的节点上。

  •  总结

  • take action: 采取行动。心动不如行动。

  • 上述使用map()算子的运行过程如下图所示

在这里插入图片描述

  • 函数本质就是一种特殊的映射。上面这个映射写成函数:f(x)=x,x∈R

任务2、将rdd1每个元素平方得到rdd2

  • 方法一、采用普通函数作为参数传给map()算子

  • 方法二、采用下划线表达式作为参数传给map()算子

  • 刚才翻倍用的是map(_ * 2),很自然地想到平方应该是map(_ * _)

  • 报错,(_ * _)经过eta-expansion变成普通函数,不是我们预期的x => x * x,而是(x$1, x$2) => (x$1 * x$2),不是一元函数,而是二元函数,系统立马就蒙逼了,不晓得该怎么取两个参数来进行乘法运算。

  • 难道就不能用下划线参数了吗?当然可以,但是必须保证下划线表达式里下划线只出现1次。引入数学包scala.math._就可以搞定

  • 但是有点美中不足,rdd2的元素变成了双精度实数,得转化成整数

任务3、利用映射算子打印菱形

(1)Spark Shell里实现

  • 菱形正立的等腰三角形和倒立的等腰三角形组合而成

 

  • 半菱形

  • 加上前导空格,显示菱形

(2)在IDEA里创建项目实现

  • 参照讲课笔记2.4创建Maven项目 - SparkRDDDemo

  • 单击【Finish】按钮

  • java目录改成scala目录 

  

  • pom.xml文件里添加相关依赖和设置源程序目录

<dependencies>
<dependency>
    <groupId>org.scala-lang</groupId>
    <artifactId>scala-library</artifactId>
    <version>2.12.15</version>
</dependency>
<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.12</artifactId>
    <version>3.1.3</version>
</dependency>
</dependencies>
  • 刷新项目依赖

  • 添加日志属性文件

log4j.rootLogger=ERROR, stdout, logfile
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spark.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n

  •  创建hdfs-site.xml文件,允许客户端访问集群数据节点

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值