错误日志:

解决方案:
参考文章:http://www.bubuko.com/infodetail-2332804.html
修改参数:
props.setProperty("fetch.max.wait.ms", "60000");
props.setProperty("session.timeout.ms", "500000");
props.setProperty("max.partition.fetch.bytes", "262144");
将超时时间设置的更长,将一次拉取大小设置成默认的四分之一,防止处理时间过长导致session失效,导致提交offset失败。
因fetch.max.wait.ms不能大于request.timeout.ms,所以还要修改这个参数:
props.setProperty("request.timeout.ms", "600000");
问题得到解决。
2.另一个原因

运维把hbase的memCache调小了,导致查询命中率下降,和磁盘的交互增加,查询速度变慢,队列打满,查询超时。

这篇博客主要记录了在使用Flink消费Kafka数据时遇到的'Marking the coordinator 2147483647 dead.'错误。问题源于超时时间和拉取大小设置不当,解决方案是延长超时时间,减小单次拉取大小,并调整fetch.max.wait.ms参数以确保不超过request.timeout.ms。此外,还提到了由于HBase memCache大小调整导致的查询性能问题,影响了Flink任务的正常运行。
最低0.47元/天 解锁文章
3899

被折叠的 条评论
为什么被折叠?



