漫游Kafka之过期数据清理


Kafka将数据持久化到了硬盘上,允许你配置一定的策略对数据清理,清理的策略有两个,删除和压缩。

数据清理的方式

删除

log.cleanup.policy=delete启用删除策略
直接删除,删除后的消息不可恢复。可配置以下两个策略:
清理超过指定时间清理:  
log.retention.hours=16
超过指定大小后,删除旧的消息:
log.retention.bytes=1073741824
为了避免在删除时阻塞读操作,采用了copy-on-write形式的实现,删除操作进行时,读取操作的二分查找功能实际是在一个静态的快照副本上进行的,这类似于Java的CopyOnWriteArrayList。

压缩

将数据压缩,只保留每个key最后一个版本的数据。
首先在broker的配置中设置log.cleaner.enable=true启用cleaner,这个默认是关闭的。
在topic的配置中设置log.cleanup.policy=compact启用压缩策略。

压缩策略的细节


如上图,在整个数据流中,每个Key都有可能出现多次,压缩时将根据Key将消息聚合,只保留最后一次出现时的数据。这样,无论什么时候消费消息,都能拿到每个Key的最新版本的数据。
压缩后的offset可能是不连续的,比如上图中没有5和7,因为这些offset的消息被merge了,当从这些offset消费消息时,将会拿到比这个offset大的offset对应的消息,比如,当试图获取offset为5的消息时,实际上会拿到offset为6的消息,并从这个位置开始消费。
这种策略只适合特俗场景,比如消息的key是用户ID,消息体是用户的资料,通过这种压缩策略,整个消息集里就保存了所有用户最新的资料。
压缩策略支持删除,当某个Key的最新版本的消息没有内容时,这个Key将被删除,这也符合以上逻辑。


Kafka视频教程同步首发,欢迎观看!


### 清理Kafka中过期的数据 在Apache Kafka中,消息保留策略决定了日志分段中的数据何时被删除。默认情况下,有两种主要方式来控制数据的生命周期:基于时间的保留和基于大小的保留。 对于基于时间的保留机制而言,当一条记录的时间戳超过配置参数`log.retention.ms`所定义的时间间隔后,这条记录会被认为是已过期并可以被清除[^1]。例如,如果设置`log.retention.ms=86400000`(即一天),那么任何早于当前时间24小时的消息都将标记为可删除状态。 另外一种方法则是通过设定主题级别的属性`log.segment.bytes`以及`log.retention.bytes`来进行基于存储空间限制下的清理工作。一旦某个分区内的所有日志片段总字节数超过了指定的最大值(`log.retention.bytes`),最旧的日志片段将会被移除直到满足条件为止;而单个日志片段达到最大尺寸(`log.segment.bytes`)时也会触发滚动新文件的操作,在此过程中同样会考虑上述提到的时间阈值逻辑[^2]。 值得注意的是,为了确保消费者能够正常处理这些变化,特别是那些版本较老可能不具备自动调整能力的应用程序,应当适当增大消费者的获取批次大小(fetch size),以便它们能顺利拉取到更大的记录批量[^3]。 最后需要注意的一点是在实际环境中执行此类操作前应该充分评估影响范围,并做好相应的备份措施以防意外情况发生。 ```bash # 修改Kafka配置文件server.properties以更改全局或特定主题的日志保留策略 $ vi /path/to/kafka/config/server.properties # 或者针对单一主题应用不同的保留规则 $ kafka-configs.sh --alter --entity-type topics --entity-name my_topic \ --add-config retention.ms=86400000 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值