spark streaming去读取kafka各个topic中的文件数据

本文介绍了如何在Spark Streaming中使用Apache Kafka作为消息源,并展示了如何从多个主题中读取数据,过滤和处理event_attendees文件,最后将结果输出到控制台。

pom文件添加的依赖:

  <dependencies>
    <dependency>
      <groupId>junit</groupId>
      <artifactId>junit</artifactId>
      <version>4.11</version>
      <scope>test</scope>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
    <dependency>
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-core_2.11</artifactId>
      <version>2.1.0</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-sql -->
    <dependency>
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-sql_2.11</artifactId>
      <version>2.1.0</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-streaming -->
    <dependency>
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-streaming_2.11</artifactId>
      <version>2.1.0</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.apache.kafka/kafka -->
    <dependency>
      <groupId>org.apache.kafka</groupId>
      <artifactId>kafka_2.11</artifactId>
      <version>2.0.0</version>
    </dependency>
    <!-- https://mvnrepository.com/artifact/org.apache.kafka/kafka-clients -->
    <dependency>
      <groupId>org.apache.kafka</groupId>
      <artifactId>kafka-clients</artifactId>
      <version>2.0.0</version>
    </dependency>

    <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-streaming-kafka-0-10 -->
    <dependency>
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-streaming-kafka-0-10_2.11</artifactId>
      <version>2.0.0</version>
    </dependency>
  </dependencies>
import org.apache.kafka.clients.consumer.{ConsumerConfig, ConsumerRecord}
import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.spark.SparkConf
import org.apache.spark.streaming.dstream.InputDStream
import org.apache.spark.streaming.kafka010.{ConsumerStrategies, KafkaUtils, LocationStrategies}
import org.apache.spark.streaming.{Seconds, StreamingContext}


object  ReadkafkaTopic {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local[*]").
      setAppName("readtest")
      .set("spark.serializer","org.apache.spark.serializer.KryoSerializer")
    val ssc = new StreamingContext(conf, Seconds(1))
    ssc.checkpoint("d:/ck")
    val kafkaParams = Map(
      ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG -> "192.168.181.132:9092",
      ConsumerConfig.GROUP_ID_CONFIG -> "zjy",
      ConsumerConfig.MAX_POLL_RECORDS_CONFIG->"500",
      ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG -> classOf[StringDeserializer],
      ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG -> classOf[StringDeserializer],
      ConsumerConfig.AUTO_OFFSET_RESET_CONFIG -> "earliest"
    )
//读取user_friends的文件

//    val ku: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream(ssc,
//      LocationStrategies.PreferConsistent,
//      ConsumerStrategies.Subscribe[String, String](Set("user_friends"), kafkaParams)
//    )
//过滤掉friend列为空的行数
//    ku.filter(ln=>{
//      val reg = ",$".r
//      val it = reg.findAllMatchIn(ln.value())
//      !it.hasNext
//    }).flatMap(line=>{
//      val info = line.value().split(",")
//      info(1).split(" ").map(fid=>{
//        (info(0),fid)
//      })
//    }).foreachRDD(rdd=>rdd.foreach(println))

//读取文件event_attendees
    val kuea: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream(ssc,
      LocationStrategies.PreferConsistent,
      ConsumerStrategies.Subscribe[String, String](Set("event_attendees"), kafkaParams))

//并对event_attendees文件进行处理后再控制台输出
    val yes = kuea.map(line => {
      val info = line.value().split(",", -1)
      (info(0), info(1))
    }).filter(_._2 != "").flatMap(x => {
      x._2.split(" ").map((x._1, _, "yes"))
    })

    val maybe = kuea.map(line => {
      val info = line.value().split(",", -1)
      (info(0), info(2))
    }).filter(_._2 != "").flatMap(x => {
      x._2.split(" ").map((x._1, _, "maybe"))
    })

    val invited = kuea.map(line => {
      val info = line.value().split(",", -1)
      (info(0), info(3))
    }).filter(_._2 != "").flatMap(x => {
      x._2.split(" ").map((x._1, _, "invited"))
    })

    val no = kuea.map(line => {
      val info = line.value().split(",", -1)
      (info(0), info(4))
    }).filter(_._2 != "").flatMap(x => {
      x._2.split(" ").map((x._1, _, "no"))
    })

    yes.union(maybe).union(invited).union(no).foreachRDD(x=>x.foreach(println))



    ssc.start()
    ssc.awaitTermination()
  }

}

split中加-1的作用:针对一行数据中后续全是以分隔符结尾的,加-1,是会取出每个分割符之间的空字符的
在这里插入图片描述

<think>好的,用户现在问的是关于Spark Streaming如何读取Kafka数据。之前他们问过Python操作Kafka,现在可能是在同一个项目或学习路径中进阶到流处理了。我需要先确定他们的背景和需求。 首先,用户可能已经了解Kafka的基本操作,现在想用Spark Streaming进行实时数据处理。要介绍Spark StreamingKafka的集成方法,可能需要对比两种常用的方式:基于Receiver的方法和Direct Approach。不过现在Spark Streaming可能已经更新,需要确认最新的方法。 记得用户之前用的是Python,所以可能需要PySpark的例子。不过Spark Streaming在Python中主要通过PySpark实现,而代码示例可能涉及Scala,但用户可能需要Python版本。要确保提供的代码示例是Python的。 用户可能对集成步骤、依赖库、基本配置和示例代码感兴趣。需要提到必要的Maven或Gradle依赖,但如果是PySpark,可能需要提到相关的包,比如spark-streaming-kafka。不过需要注意,Spark的不同版本对应的包名称可能不同,比如Spark 2.4.x和3.x的区别。 另外,用户可能关心如何设置Kafka参数,比如bootstrap servers、topic、消费者组等。还有如何处理偏移量,确保数据不丢失,以及可能的性能优化参数,比如auto.offset.reset,enable.auto.commit等。 可能用户在实际操作中会遇到依赖问题,比如如何正确引入Kafka的库,或者在集群上运行时需要确保所有节点都有相应的jar包。这时候可能需要提醒他们注意版本兼容性,以及提交应用时的--packages选项。 另外,需要提到结构化流(Structured Streaming)的方式,因为Spark已经逐渐转向结构化流API,可能比传统的Spark Streaming更推荐使用。所以应该包括两种方式的示例:传统的Spark Streaming和Structured Streaming。 用户可能还关心数据处理后的输出操作,比如保存到HDFS、数据库或打印到控制台。需要给出保存结果的示例,比如foreachRDD或writeStream的输出模式。 最后,常见问题部分需要包括偏移量管理、容错机制、性能调优,比如分区数、并行度调整,以及可能的错误处理,比如连接超时或反序列化问题。 总结:需要结构清晰,分步骤介绍两种集成方式,提供Python示例,强调版本差异,依赖管理,配置参数,以及常见问题和优化建议。同时注意用户可能的PySpark背景,确保示例代码正确可用。</think>在 Spark Streaming读取 Kafka 数据是实时流处理的常见场景,以下是实现方法及关键步骤: --- ### 一、依赖准备 Spark 提供了两种与 Kafka 集成的 API(需根据 Spark 版本选择): 1. **传统方式(Receiver-based)**(已逐渐淘汰) 2. **Direct Approach(推荐)**:基于 Kafka 的消费者 API,更高效且支持 Exactly-Once 语义。 **Maven/Gradle 依赖**(以 Spark 3.x + Kafka 0.10+ 为例): ```xml <!-- Spark Streaming + Kafka 集成包 --> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-streaming-kafka-0-
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值