SPARK 笔记 (八) sparkstreaming与kafka整合 (一)

本文介绍了如何在Spark3.0.0中进行SparkStreaming与Kafka的整合,重点关注与旧版本的区别。文章指出,由于使用了Scala 2.12版本,依赖导入和API可能会有所不同。作者提到了可以在Spark官方网站上查找相关整合资料,并且建议使用Kafka 0.10以上版本的API,特别是直接连接底层源码的最新API。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

sparkstreaming与kafka整合(一)

anssin用的是spark3.0.0 ,与kafka整合会和以前版本有些出入

首先我们导入sparkstreaming的依赖,scala版本是2.12的

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-streaming_2.12</artifactId>
    <version>${spark.version}</version>
</dependency>

 

有关一些sparkstreaming和kafka的整合在官网(spark.apache.org)我们可以找到相关资料

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值