flume转发数据到kafka 时,只写入相同的partition

文章讲述了在监控客户环境的服务器时遇到的问题,尽管日志量不大但数据积压。经过排查发现,Kafka数据只写入一个partition,原因是Flume的KafkaSink使用了主题和键属性进行分区。解决办法建议谨慎处理,不建议私自添加拦截器。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、背景

在客户环境发现一个奇怪的问题,就是服务器日志量不是很大,但是数据积压,消费能力也不行

二、排查

通过排查磁盘IO,服务器使用率,组件日志,均未发现异常。

偶然消费kafka read,即查看入口数据积压时,发现了异常。

三、结论

问题描述:

kafka read topic分区数据异常,所有数据只写入一个partition

排查结果:

flume官方说明kafka前端使用flume采集数据,Kafka Sink 使用 FlumeEvent 标头中的主题和键属性将事件发送到 Kafka。如果标头中存在主题,则事件将发送到该特定主题,从而覆盖为接收器配置的主题。如果标头中存在键,Kafka 将使用该键在主题分区之间对数据进行分区。具有相同键的事件将被发送到相同的分区。如果键为空,事件将被发送到随机分区

四、解决办法

添加拦截器:(不建议私自添加,可能影响性能或者丢数据,所以放截图,仅供参考)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值