
Kafka
1024276449
这个作者很懒,什么都没留下…
展开
-
精准一次性消费
定义**精准一次性消费:**消费且仅消费一次数据,保证数据不丢不重;**最少一次消费:**主要是保证数据不丢,可能会产生数据的重复;**最多一次消费:**主要是保证数据不会重复,但有可能丢失数据问题如何产生**丢失数据:**在Kafka消费数据时我们的数据还没有处理完就提交了offect,如果此时我们宕机了在重新消费时就会产生数据丢失;**重复数据:**在Kafka消费数据时我们的数据处理过后此时宕机了因为我们还没有提交offect这时我们重新进行消费的话就会产生我们数据的重复如何解决方案一原创 2021-06-14 16:00:55 · 254 阅读 · 1 评论 -
Kafka重复消费 漏消费 有序性
1.消费者自动提交偏移量2.消费者手动提交偏移量当我们的消费者Poll数据到Consumer当要更新offset时挂掉了此时我们的offect并没有被修改成功当Consumer好了时在重新读取的offect还是3所以会造成数据的重复消费那些情景会造成消息漏消费?先提交offset,后消费,有可能造成数据的重复如何保证有序性因为Kafka只能保证分区内有序当我们有多个分区但是想保证我们数据的有序性时我们可以使用一个生产者一个消费者一个分区,或者我们可以指定想要有序的数据到同一个分区生产者发送原创 2021-04-18 16:24:34 · 433 阅读 · 0 评论 -
Kafka如何保证数据有序
两种方案:方案一,kafka topic 只设置一个partition分区方案二,producer将消息发送到指定partition分区解析:方案一:kafka默认保证同一个partition分区内的消息是有序的,则可以设置topic只使用一个分区,这样消息就是全局有序,缺点是只能被consumer group里的一个消费者消费,降低了性能,不适用高并发的情况方案二:既然kafka默认保证同一个partition分区内的消息是有序的,则producer可以在发送消息时可以指定需要保证顺序的几条消息原创 2021-04-15 20:47:57 · 2659 阅读 · 0 评论 -
Kafka-Exactly Once语义
Exactly Once语义 将服务器的ACK级别设置为-1,可以保证Producer到Server之间不会丢失数据,即At Least Once语义。相对的,将服务器ACK级别设置为0,可以保证生产者每条消息只会被发送一次,即At Most Once语义。 At Least Once可以保证数据不丢失,但是不能保证数据不重复;相对的,At Least Once可以保证数据不重复,但是不能保证数据不丢失。但是,对于一些非常重要的信息,比如说交易数据,下游数原创 2021-04-04 22:03:29 · 113 阅读 · 0 评论