关于sparkStreaming整合kafka遇到的问题

在尝试使用SparkStreaming整合Kafka时遇到了权限、Zookeeper ACL和负载均衡(rebalance)的问题。首先,针对权限问题,尝试通过JavaStreamContext和System.setProperty设置SASL认证未果,最终发现需要将Spark部署到Kafka集群机器上才能实现安全登录。接着,Zookeeper的ACL无效导致异常。最后,长时间困扰的是ConsumerRebalanceFailedException,经过排查确定为Kafka集群版本过高与使用JDK 1.7的Spark不兼容。降低Kafka版本后,问题得到解决,同时也避免了手动配置ACL的需要。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 (一定要先看到最后,在对症下药)   

 首先概述一下,我的代码主要就是将kafka中消费的数据转到sparkStreaming中,并进行一系列的操作。这个代码在网上有很多相同的,在此不做太多论述。代码大概是这样的:


第一个问题:权限问题,我的kafka集群是需要sasl安全认证登录,而在我的代码中并没有可以让我配置消费者的地方,因为是初学者总是哪里都想试试。首先尝试了通过JavaStreamContext设置KafkaConsumer发现行不通。 然后又通过System.setProperty进行设置,设置了用户登录的认证文件位置。设置之后没有才出现如下异常。

kafka.common.BrokerEndPointNotAvailableException: End point PLAINTEXT not found for broker 0

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值