kafka学习(了解,kafka的介绍及特点)

Kafka是一个分布式、分区、多副本的消息发布订阅系统,常用于日志聚合、指标分析和流式处理。它提供高吞吐量、持久性和可扩展性,依赖Zookeeper协调集群。Kafka的主要好处包括可靠性、耐用性和高性能,常见应用场景包括操作监控、日志收集和实时数据分析。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

kafka理解及使用
1.什么是kafka???
kafka是一个分布式的,可分区的,多副本的,多订阅者的消息订阅系统。
1.1那么问题来了什么是消息队列呢(我们对比一下消息和消息队列):
**消息:**是指在应用之间传送的数据,消息非常简单,比如只包含文本字符串,也可以更加复杂,可能包含插入对象
消息队列:是一种应用间的通信方式,消息发送后可以立即返回,由消息系统来确保消息的可靠传递,消息发布这只管把消息发布到MQ中不管谁来取,消息使用者只管从MQ中取消息而不管谁发布的,这样发布者和使用者都不用知道对方的存在
1.2

2.消息队列的应用场景:

应用耦合
多应用间通过消息队列进行同一消息进行处理,避免调用接口失败导致整个过程失败
异步处理
多应用对消息队列中的同一消息进行处理,应用间并发处理消息,相比串行处理,减少处理时间
限流削峰
这个场景广泛应用于秒杀或者抢购活动中,避免流量过大导致应用系统挂掉的情况

3.kafka生态系统中都有什么角色呢??

  • [ 生产者(producer) ]
  • [ kafka集群(broker) ]
  • [ 消费者(consumer) ]
  • [ zookeeper ]

4.消息队列的两种模式:

1.点对点模式(point to point, queue)

点对点包括三个角色:

消息队列
发送者(生产者)
接收者(消费者)


当消息发送者生产消息到queue中,然后消息接收者从queue中取出并且消费信息,消息被消费后,queue中不再存储,所以消息接收者不可能消费到已经被消费的数据
点对点模式的特点

  • 每个消息只有一个接收者(consumer),消息一旦被消费,消息就不在消息队列中
  • 发送者和消息接收者之间没有依赖,发送者发送消息之后,不管接收者有没有接收到消息,有没有在运行,他都不会影响到发送者下次发送消息
  • 接收者在成功接受消息之后需要像队列应答成功,以便消息队列删除当前接受的消息
发布/订阅模式

发布/订阅模式包括的场景:

角色主题(Topic)
发布者(Publisher)
订阅者(Subscriber)

在这里插入图片描述
发布者将消息发送到Topic,系统将这些消息传递给多个订阅者。
发布/订阅模式特点:
• 每个消息可以有多个订阅者;
• 发布者和订阅者之间有时间上的依赖性。针对某个主题(Topic)的订阅者,它必须创建一个订阅者之后,才能消费发布者的消息。
• 为了消费消息,订阅者需要提前订阅该角色主题,并保持在线运行;

kafka的基本介绍

1、kafka的基本介绍

官网:http://kafka.apache.org/

kafka是一个分布式,分区的,多副本的,多订阅者的消息发布订阅系统(分布式MQ系统),可以用于搜索日志,监控日志,访问日志等。
最初由linkedin公司开发,使用scala语言编写。

Kafka is a distributed,partitioned,replicated commit logservice。
kafka对消息保存时根据Topic进行归类,发送消息者成为Producer,消息接受者成为Consumer,此外kafka集群有多个kafka实例组成,每个实例(server)成为broker。无论是kafka集群,还是producerconsumer都依赖于zookeeper来保证系统可用性集群保存一些meta信息

2、kafka的好处

可靠性:分布式的,分区,复制和容错。
可扩展性:kafka消息传递系统轻松缩放,无需停机。
耐用性:kafka使用分布式提交日志,这意味着消息会尽可能快速的保存在磁盘上,因此它是持久的。
性能:kafka对于发布和定于消息都具有高吞吐量。即使存储了许多TB的消息,他也爆出稳定的性能。
kafka非常快:保证零停机和零数据丢失。

3、分布式的发布与订阅系统

apache kafka是一个分布式发布-订阅消息系统和一个强大的队列,可以处理大量的数据,并使能够将消息从一个端点传递到另一个端点,kafka适合离线和在线消息消费。
kafka消息保留在磁盘上,并在集群内复制以防止数据丢失。
kafka构建在zookeeper同步服务之上。它与apache和spark非常好的集成,应用于实时流式数据分析。

4、kafka的主要应用场景

指标分析
kafka通常用于操作监控数据。用于接收、聚合来自多种应用程序的统计信息, 以便于向产生环境中的数据集中反馈数据日志聚合解决方法
kafka可用于跨组织从多个服务器收集日志,并使他们以标准的合适提供给多个服务器。
流式处理
流式处理框架(spark,storm,flink)从主题中读取数据,对齐进行处理,并将处理后的数据写入新的主题,供用户和应用程序使用,kafka的强耐久性在流处理的上下文中也非常的有用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值