将kafaka跟sparkstreaming进行整合简单的计算任务

本文介绍如何使用Spark Streaming与Kafka整合来实时处理数据流,通过实例演示了从Kafka读取数据,进行WordCount统计,并将结果打印的过程。详细展示了配置SparkConf,设置Kafka参数,创建KafkaDStream,以及处理和打印结果的完整流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

object KafkaWordCount {
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setAppName(this.getClass.getSimpleName).setMaster(“local[*]”)
val ssc = new StreamingContext(conf,Seconds(5))
ssc.sparkContext.setLogLevel(“WARN”)
//kafka相关的参数
val kafkaParams = Map[String, Object](
“bootstrap.servers” -> “linux01:9092,linux02:9092,linux03:9092”,
“key.deserializer” -> classOf[StringDeserializer],
“value.deserializer” -> classOf[StringDeserializer],
“groupid” -> “groupId”,
“auto.offset.reset” -> “earliest”,
//消费者自动提交偏移量(写道kafaka特殊的topic中)
“enable.auto.commit” -> (true, java.lang.Boolean)
)

val topics=Array("wordcount")
//将kafaka跟sparkstreaming进行整合 使用官方推荐的直连方式 使用kafka底层的消费API 效率更高
val kafkaDStream: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream(
  //传入streamingcontext
  ssc,
  //位置策略
  LocationStrategies.PreferConsistent,
  //消费策略
  ConsumerStrategies.Subscribe[String, String](topics, kafkaParams)
)
val lines: DStream[String] = kafkaDStream.map(cr => cr.value())
val word: DStream[String] = lines.flatMap(_.split(","))
val wordAndOne: DStream[(String, Int)] = word.map((_,1))
val res = wordAndOne.reduceByKey(_+_)
res.print()

//将任务挂起  一直执行任
ssc.start()
ssc.awaitTermination()

}

}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值