
kafka
lmb633
这个作者很懒,什么都没留下…
展开
-
Spark Streaming, Kafka receiver, "Failed to get records for ... after polling for 512"
javajava.lang.AssertionError: assertion failed: Failed to get records for (...) after polling for 512使用spark streaming处理kafka中的数据,调试过程中,由于程序停了很长时间,导致kafka中挤压了很多数据,再次启动时,遇到了这个报错。网上查了很多资料,尝试了很多参数设置,发现然并...原创 2018-03-23 14:49:29 · 4381 阅读 · 0 评论 -
kafka消费者offset相关设置
1.自动提交offset&手动提交offset自动提交,只需设置"enable.auto.commit",为"true"即可,"auto.commit.interval.ms",为默认自动提交的时间,一般设为"1000",单位ms;手动提交,设置"enable.auto.commit",为"false"。手动提交有两种形式,一种是提交所有订阅的topic,直接在每次消费完成原创 2018-04-11 09:28:14 · 11855 阅读 · 1 评论 -
sparkstreaming中kafka的offset提交
就kafka而言,offset提交方式有两种,自动和手动。将enable.auto.commit设置为true,即可自动提交props.put("enable.auto.commit", "true");props.put("auto.commit.interval.ms", "1000");或者采用commitAsync来自动提交。sparkstreaming消费kafka数据,提交方式也是分为...原创 2018-05-31 12:10:01 · 4344 阅读 · 0 评论 -
sparkstreaming kafka Failed to get records for after polling for 512
这个错误上次说的解决方案是设置heartbeat.interval.ms 和 session.timeout.ms这两个参数,但发下效果不理想,错误还是会出现。从错误日志里翻阅源码,发现了问题所在,报错的代码是: at org.apache.spark.streaming.kafka010.CachedKafkaConsumer.get(CachedKafkaConsumer.scala:74)查...原创 2018-05-31 12:33:51 · 3774 阅读 · 0 评论 -
flume+kafka配置问题
kafka版本0.9以后采用了新的consumer,改变了很多特性:新的Comsumer API不再有high-level、low-level之分了,而是自己维护offset。这样做的好处是避免应用出现异常时,数据未消费成功,但Position已经提交,导致消息未消费的情况发生。通过查看API,新的Comsumer API有以下功能:Kafka可以自行维护Offset、消费者的Positi...原创 2018-11-08 12:02:34 · 1936 阅读 · 0 评论