我这边遇到的问题是由于手动维护了offset,指定了分组

我新增了一个Topic,新创建了一个Consumer。但是保存Redis里面的分组还是原来的test
所以消费不到啊!!!!!
SparkStreaming消费不到Kafka的数据
最新推荐文章于 2022-06-19 22:58:35 发布
博主在使用Kafka时遇到问题,手动维护offset并指定分组后,新增的Topic无法被新创建的Consumer消费,因为Redis中保存的分组仍为旧的'test',导致消息无法正常接收。
964

被折叠的 条评论
为什么被折叠?



