SparkStreaming
一、SparkStreaming简介
SparkStreaming是流式处理框架,是Spark API的扩展,支持可扩展、高吞吐量、容错的实时数据流处理,实时数据的来源可以是:Kafka, Flume, Twitter, ZeroMQ或者TCP sockets,并且可以使用高级功能的复杂算子来处理流数据。例如:map,reduce,join,window 。最终,处理后的数据可以存放在文件系统,数据库等,方便实时展现
SparkStreaming底层操作DStream
二、SparkStreaming与Storm区别
1 Storm是纯实时的流式处理框架,SparkStreaming是准实时的处理框架(微批处理)
因为微批处理, SparkStreaming的吞吐量比Storm要高
2 Storm 的事务机制要比SparkStreaming的要完善,SparkStreaming可以手动管理事务
3 Storm支持动态资源调度,SparkStreaming也支持资源调度,但是一般情况下不开启,为了避免内存给了却要不回来的情况
4 Storm不擅长复杂的业务处理,擅长简单的汇总型计算,SparkStreaming擅长复杂的业务处理,因为在SparkStreaming中可以使用core/sql/机器算法
三、SparkStreaming
1 接收数据原理图
SparkStreaming是7 *24h不间断运行, SparkStreaming启动之后,首先会启动一个job ,这个job有一个task来接收数据, task每隔一-段时间将接收来的数据封装到一-个batch中,“这段时间” 就是batchInterval。 生成的每个batch又被封装到一一个 RDD中,这个RDD又被封装到一一个DStream中, SparkStreaming底层操作的就是DStream。 DStream有 自己的Transformation类算子,懒执行,需要DStream的outputOperator类算子触发执行
2 注意事项
Ø 启动socket server 服务器:nc –lk 9999 在集群使用yum install -y nc安装
Ø receiver模式下接收数据,local的模拟线程必须大于等于2,一个线程接收数据,另一个线程执行job
Ø Durations时间设置就是我们能接收的延迟度。这个需要根据集群的资源情况以及任务的执行情况来调节。
localhost:4040 查看Active Jobs栏数量看是否堆积
Ø 创建JavaStreamingContext有两种方式(SparkConf,SparkContext)
Ø 所有的代码逻辑完成后要有一个output operation类算子
Ø JavaStreamingContext.start() Streaming框架启动后不能再次添加业务逻辑
Ø JavaStreamingContext.stop() 无参的stop方法将SparkContext一同关闭,stop(false),不会关闭SparkContext
Ø JavaStreamingContext.stop()停止之后不能再调用start
3 算子
foreachRDD–针对当前批次的数据
注意
Ø 1 需要Action算子触发
Ø 2 在于foreachRDD内部,RDD转换算子外部之间的信息 (Driver端)每次都执行
在转换算子内部,相当于(–Excutor端–),有数据才执行
SparkStreaming虽不能在运行过程中更改数据信息,但是更改外部文件,因此可以实现动态改变–动态广播变量
package com.cs.scala.sparkString
import org.apache.spark.rdd.RDD
import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
import org.apache.spark.streaming.{Durations, StreamingContext}
import org.apache.spark.{SparkConf, SparkContext}
/**
* foreachRDD 统计当前这一批次的数据
*
* 两种创建Streaming方式
* val sc = new SparkContext(conf)
* val ssc = new StreamingContext(sc,Durations.seconds(5))
* val ssc = new StreamingContext(conf,Durations.seconds(5))
*/
object ForeachRDD {
def main(args: Array[String]): Unit = {
val conf = new SparkConf()
//注意设置Master的local[]数量,因为在整个过程中,需要两个task(1接收1执行计算),local默认是 1
conf.setAppName("foreachRDD").setMaster("local[2]")
// val sc = new SparkContext(conf)
val ssc = new StreamingContext(conf,Durations.seconds(5))
//监控集群端口的工具--socketTextStream
val lines: ReceiverInputDStream[String] = ssc.socketTextStream("sxt002",port = 9999)
val result: DStream[(String, Int)] = lines.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)
// result.print(100)
result.foreachRDD(pairRDD=>{
val newRDD: RDD[(String, Int)] = pairRDD.filter(one => {
println("==========Driver=========")
true
})
val resultRDD: RDD[Unit] = newRDD.map(one => {
println("-----Excutor-----")
})
resultRDD.count()
})
//框架启动之后是不能在次添加业务逻辑
// 停止之后是不能在调用start
ssc.start()
//表示不间断执行 7*24h
ssc.awaitTermination()
//可以在以后找到数据后停止SparkStreaming,若stop(ture)则一同关闭sc
ssc.stop()
}
}
updateStateByKey–针对所有批次数据
1、为Spark Streaming中每一个Key维护一份state状态,state类型可以是任意类型的, 可以是一个自定义的对象,那么更新函数也可以是自定义的
2、通过更新函数对该key的状态不断更新,对于每个新的batch而言,Spark Streaming会在使用updateStateByKey的时候为已经存在的key进行state的状态更新
3、根据key更新状态,需要设置 checkpoint来保存状态
4、默认key的状态在内存中 有一份,在checkpoint目录中有一份
5、batchInterval负责将内存文件写在磁盘上 10s为界
def main(args: Array[String]): Unit = {
val conf = new SparkConf()
conf.setMaster("local[2]")
conf.setAppName("UpdateStateByKey")
val ssc = new StreamingContext(conf,Durations.seconds(5))
//设置日志级别
ssc.sparkContext.setLogLevel("ERROR")
val lines: ReceiverInputDStream[String] = ssc.socketTextStream("c7node5",9999)
val words: DStream[String] = lines.flatMap(line=>{line.split(" ")})
val pairWords: DStream[(String, Int)] = words.map(word => {
(word, 1)
})
ssc.checkpoint("./Test_spark/data/streamingCheckpoint")
/**
* currentValues :当前批次某个 key 对应所有的value 组成的一个集合
* preValue : 以往批次当前key 对应的总状态值
*/
val result: DStream[(String, Int)] = pairWords.updateStateByKey((currentValues: Seq[Int], preValue: Option[Int]) => {
var totalValues = 0
if (!preValue.isEmpty) {
totalValues += preValue.get
}
for(value <- currentValues){
totalValues += value
}
Option(totalValues)
})
result.print()
ssc.start()
ssc.awaitTermination()
ssc.stop()
窗口操作–针对某一时间段批次数据
Ø 假设每隔5s 1个batch,上图中窗口长度为15s,窗口滑动间隔10s。
Ø 窗口长度和滑动间隔必须是batchInterval的整数倍。如果不是整数倍会检测报错。
Ø reduceByKeyAndWindow 窗口操作 checkpoint 保存数据
Ø 窗口操作优化的机制 实时数 = 总-旧+新
val conf = new SparkConf()
conf.setAppName("windowOperator")
conf.setMaster("local[2]")
val ssc = new StreamingContext(conf,Durations.seconds(5))
ssc.sparkContext.setLogLevel("Error")
val lines: ReceiverInputDStream[String] = ssc.socketTextStream("sxt002",9999)
val words: DStream[String] = lines.flatMap(line=>{line.split(" ")})
val pairWords: DStream[(String, Int)] = words.map(word=>{(word,1)})
/**
* 窗口操作普通的机制
*/
// val windowResult: DStream[(String, Int)] =
// pairWords.reduceByKeyAndWindow((v1:Int, v2:Int)=>{v1+v2},Durations.seconds(15),Durations.seconds(5))
/**
* 窗口操作优化的机制
* 因为要保存状态所以要设置checkpoint路径
* 实时数 = 原总数-旧+新
*/
ssc.checkpoint("./Test_spark/data/streamingCheckpoint")
val windowResult: DStream[(String, Int)] = pairWords.reduceByKeyAndWindow(
(v1:Int, v2:Int)=>{v1+v2},
(v1:Int, v2:Int)=>{v1-v2},
Durations.seconds(15),
Durations.seconds(5))
windowResult.print()
ssc.start()
ssc.awaitTermination()
ssc.stop()
transform
Ø transform可以拿到DStream的RDD,经过RDD的算子后,要返回RDD,返回的RDD又被封装到一个DStream
Ø 过滤黑名单,如果输入的含有xxx,就过滤掉不取
Ø 作用和foreachRDD类似,–Driver端,Excutor端 --动态广播变量
val conf = new SparkConf()
conf.setAppName("transform")
conf.setMaster("local[2]")
val ssc = new StreamingContext(conf,Durations.seconds(5))
// ssc.sparkContext.setLogLevel("Error")
/**
* 广播黑名单
*/
val blackList: Broadcast[List[String]] = ssc.sparkContext.broadcast(List[String]("zhangsan","lisi"))
/**
* 从实时数据【"hello zhangsan","hello lisi"】中发现 数据的第二位是黑名单人员,过滤掉
*/
val lines: ReceiverInputDStream[String] = ssc.socketTextStream("c7node5",9999)
val pairLines: DStream[(String, String)] = lines.map(line=>{(line.split(" ")(1),line)})
val resultDStream: DStream[String] = pairLines.transform(pairRDD => {
println("=======Driver=======")
val filterRDD: RDD[(String, String)] = pairRDD.filter(tp => {
val nameList: List[String] = blackList.value
!nameList.contains(tp._1)
})
val returnRDD: RDD[String] = filterRDD.map(tp => tp._2)
returnRDD
})
resultDStream.print()
ssc.start()
ssc.awaitTermination()
ssc.stop()
saveAsTextFiles(prefix, [suffix])–将DStream内容保存为文本文件
Ø SparkStreaming监控一个目录数据时,无法监控目录下已经存在的文件 ,可以监控增加的文件
Ø 增加的文件必须是原子性产生(文件中不能写莫名东西)
Ø 命名格式是 refix-TIME_IN_MS[.suffix]
result.saveAsTextFiles("./data/streamingSavePath/prefix","suffix")
val conf = new SparkConf()
conf.setMaster("local")
conf.setAppName("saveAsTextFile")
val ssc = new StreamingContext(conf,Durations.seconds(5))
val lines: DStream[String] = ssc.textFileStream("./Test_spark/data/streamingCopyFile")
val words: DStream[String] = lines.flatMap(line=>{line.split(" ")})
val pairWords: DStream[(String, Int)] = words.map(word=>{(word,1)})
val result: DStream[(String, Int)] = pairWords.reduceByKey((v1:Int, v2:Int)=>{v1+v2})
//保存的多级目录就直接写在前缀中
result.saveAsTextFiles("./Test_spark/data/streamingSavePath/prefix","suffix")
ssc.start()
ssc.awaitTermination()
ssc.stop()
Driver-HA
两方面设置:
1 在提交application时,添加–supervice 如果挂点会自动重启Driver
2 代码层面 StreamingContext.getOrCreate(原逻辑,新逻辑)
需要注意的是,Driver重启之后用的仍然是旧逻辑,新逻辑不会被用,除非清空checkpoint所有的目录信息
默认checkpoint 存储:
1.配置信息
2.DStream操作逻辑
3.job的执行进度
4.offset
//设置checkpoint目录
val ckDir = "./Test_spark/data/streamingCheckpoint"
def main(args: Array[String]): Unit = {
val ssc: StreamingContext = StreamingContext.getOrCreate(ckDir,CreateStreamingContext)
ssc.start()
ssc.awaitTermination()
ssc.stop()
}
def CreateStreamingContext() = {
println("=======Create new StreamingContext =======")
val conf = new SparkConf()
conf.setMaster("local")
conf.setAppName("DriverHA")
val ssc: StreamingContext = new StreamingContext(conf,Durations.seconds(5))
ssc.sparkContext.setLogLevel("Error")
ssc.checkpoint(ckDir)
val lines: DStream[String] = ssc.textFileStream("./Test_spark/data/streamingCopyFile")
val words: DStream[String] = lines.flatMap(line=>{line.trim.split(" ")})
val pairWords: DStream[(String, Int)] = words.map(word=>{(word,1)})
val result: DStream[(String, Int)] = pairWords.reduceByKey((v1:Int, v2:Int)=>{v1+v2})
result.print()
//更改逻辑
// result.foreachRDD(pairRDD=>{
// pairRDD.filter(one=>{
// println("*********** filter *********")
// true
// })
// pairRDD.foreach(println)
// })
ssc