SparkStreaming+Kafka(spark 1.6)

本文介绍了在Spark 1.6版本中如何使用Spark Streaming与Kafka进行集成。通过设置SparkConf和SparkContext,定义Kafka的topic和bootstrap servers,以及配置kafkaparams,创建DirectStream并进行数据处理。示例代码展示了如何从Kafka的'callcentor'主题读取数据,并打印每个RDD中的消息内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Note:spark1.6版本,kafka版本要是0.8.21

咳咳,pom文件自己去配

代码示例:

def main(args:Array[String]):Uint={

val conf=new SparkConf().setAppName("test) //在集群中运行可以不指定master

val sc=new SparkContext(conf)

// 定义topic

val topic=Set("callcentor") //callcentor为topic的名称

//定义bootstraps

val bootstraps="localhost:9092" //我是在集群单机版测试的,localhost 可以改成对应的地址

//定义kafka参数

val kafkaparams=Map[String,String](

"bootstrap.servers"->bootstraps,

"groupid"->"test",//消费者组的名字

"auto.offset.reset"->"smallest" //从最小的offset可以取

"key.deserializer"->"org.apache.kafka.common.serialization.StringDeserializer",

"value.deserializer"->"org.apache.kafka.common.serialization.StringDeserializer"

)

//创建streaming

val ssc=new StreamingContext(sc,Mil

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值