Kafka笔记

1.为何使用消息系统

  • 解耦  两边都要实现这一接口,所以能独立地修改两边的处理过程。
  • 冗余  会存储这些数据,以防数据处理失败而丢失。很多消息队列采用“插入-获取-删除”的范式。
  • 扩展性  因为消息队列解耦了处理过程,所以增大消息入队和处理的频率很容易。
  • 突发处理能力  对突增的流量可以从容地应对,使关键组件顶住。
  • 可恢复性  当系统某一组件失效时,不会影响整个系统
  • 顺序保证  保证消息的有序性
  • 缓冲  使写入队列的处理尽可能地快速
  • 异步通信  不一定需要立即处理消息,允许用户把消息放入队列但不立即处理它。

2.消息队列的点对点和发布订阅

  • 点对点

  生产者发送一条消息到Queue,只有一个消费者能收到。Queue实现了负载均衡,一个消息只能被一个消费者接受,当没有消费者可用时,这个消息会被保存直到有 一个可用的消费者,一个Queue可以有很多消费者,他们之间实现了负载均衡, 所以Queue实现了一个可靠的负载均衡。

  • 发布订阅

  topic实现了发布和订阅,当你发布一个消息,所有订阅这个topic的服务都能得到这个消息,所以从1到N个订阅者都能得到一个消息的拷贝, 只有在消息代理收到消息时有一个有效订阅时的订阅者才能得到这个消息的拷贝。

  • 消息队列模型比较

RabbitMQ

RabbitMQ实现了AQMP协议,AQMP协议定义了消息路由规则和方式。生产端通过路由规则发送消息到不同queue,消费端根据queue名称消费消息。此外RabbitMQ是向消费端推送消息,订阅关系和消费状态保存在服务端。

生产端发送一条消息通过路由投递到Queue,只有一个消费者能消费到。

当RabbitMQ需要支持多订阅时,发布者发送的消息通过路由同时写到多个Queue,不同订阅组消费此消息。
RabbitMQ既支持内存队列也支持持久化队列,消费端为推模型,消费状态和订阅关系由服务端负责维护,消息消费完后立即删除,不保留历史消息。所以支持多订阅时,消息会多个拷贝。

 

Kafka

Kafka只支持消息持久化,消费端为拉模型,消费状态和订阅关系由客户端端负责维护,消息消费完后不会立即删除,会保留历史消息。因此支持多订阅时,消息只会存储一份就可以了。

同一个订阅组会消费topic所有消息,每条消息只会被同一个订阅组的一个消费节点消费,同一个订阅组内不同消费节点会消费不同消息。

### 尚硅谷 Kafka 学习笔记 #### 创建 Kafka 生产者并发送消息 为了创建一个简单的 Kafka 生产者并向指定主题发送消息,在命令行工具中可以执行如下操作。通过 `bin/kafka-console-producer.sh` 脚本启动生产者客户端,并指定了引导服务器地址以及目标主题名称[^1]。 ```bash [atguigu@hadoop102 kafka]$ bin/kafka-console-producer.sh --bootstrap-server hadoop102:9092 --topic first > hello ``` 此命令允许用户手动输入要发布的消息内容,每条新消息以回车键结束提交给集群处理。 #### 修改消费者配置文件设置分组ID 对于希望自定义消费逻辑的应用程序来说,调整消费者的配置参数是非常重要的一步。具体而言,可以通过编辑 `/opt/module/kafka/config/consumer.properties` 文件内的 `group.id` 属性来设定唯一的消费者组标识符[^4]。 ```properties [atguigu@hadoop103 config]$ vi consumer.properties group.id=atguigu ``` 这里展示了如何更改默认值为特定字符串(如 "atguigu"),从而确保不同实例之间不会相互干扰。 #### 实现自定义分区器 当业务需求涉及到更复杂的路由策略时,则可能需要用到自定义的 Partitioner 类型。下面给出了一种基于关键字匹配决定消息所属分区的方法示例代码片段[^5]: ```java public class MyPartitioner implements Partitioner { @Override public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) { String inputValue = (value != null && !"".equals(value)) ? value.toString() : ""; if ("hello".contains(inputValue)){ return 1; } else{ return 0; } } @Override public void close(){} @Override public void configure(Map<String, ?> configs){} } ``` 这段 Java 程序实现了 `Partitioner` 接口,并覆盖了其抽象方法 `partition()` 来判断传入的消息体是否包含预设关键词 `"hello"`;如果条件成立则返回整数 `1` 表明该记录应分配至编号为 `1` 的物理分区上,反之亦然。 #### 关于日志与数据存储机制的理解 值得注意的是,Kafka 中的日志目录实际上是指向实际保存二进制编码后的消息集合的位置。由于这些对象经过序列化过程变得难以直观理解,因此建议开发者熟悉相关概念以便更好地管理和维护系统性能[^2]。 另外,关于偏移量 Offset 的管理方式也值得深入探讨。每个存储单元都会依据首次出现位置获得独一无二的名字格式——即形似 `xxxxxx.kafka` 这样的文件名模式,其中 x 可能代表任意长度但始终递增的一串数字字符[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值