Kafka4.0集群部署

PS:单机部署,采用了docker部署和直接部署两种方式,请跳转这里
本篇为集群部署,全部采用docker方式

1. 集群节点

集群部署3台服务器,每个节点都同事作为controller和broker,如果服务器充足,可以将controller和broker分开

主机名IP地址角色操作系统
kafka01192.168.5.31controller/brokerUbuntu-24
kafka02192.168.5.32controller/brokerUbuntu-24
kafka03192.168.5.33controller/brokerUbuntu-24

2. 配置服务器

2.1 配置主机名

sudo hostnamectl set-hostname kafka01

# 查看是否设置成功
hostname

2.2 配置IP地址

# 查看当前的网卡名称
ip a

# 先进入/etc/netplan
cd /etc/netplan

# 查看文件夹下面的yaml的名称
ll

# 打开下面的yaml文件(文件名称以上面看到的为准)
sudo vim 具体文件名称.yaml

#根据下面的内容进行配置

# 配置生效
sudo netplan apply

# 验证网卡IP是否设置正确
ip route show default # 如果没有任何返回,则说明网卡IP不正确,需要找到正确的网卡IP进行修改

# 验证是否修改成功
ip a

yaml具体配置如下:

network:
  version: 2
  renderer: networkd
  ethernets:
    ens33:  # 替换为你的网卡名称
      dhcp4: no
      addresses: [192.168.5.31/24]  # IP和子网掩码
      routes:
        - to: default            # 等效于 0.0.0.0/0
          via: 192.168.1.1       # 网关地址
      nameservers:
        addresses: [8.8.8.8, 8.8.4.4]  # DNS服务器

注意:网关地址和DNS服务器要配置正确

2.3 配置hosts解析

sudo vim /etc/hosts

# 输入下面内容
192.168.5.31 kafka01
192.168.5.32 kafka02
192.168.5.33 kafka03

2.4 其他服务器重复上面的操作

如果是虚拟机,那么可以设置一台之后,克隆即可,克隆后,需要修改主机名和ip地址(注:也可以等下面JDK安装往之后再克隆)

3. 安装JDK17

sudo apt-get install openjdk-17-jdk
#验证是否成功
java -version
# 返回版本号,就是成功,openjdk version "17.0.15" 2025-04-15

3.1 添加JAVA_HOME环境变量

#查看jdk安装目录
sudo update-alternatives --config java
#编辑环境
sudo vim /etc/environment
#添加JAVA_HOME
JAVA_HOME="/usr/lib/jvm/java-17-openjdk-amd64"
#生效配置
source /etc/environment
#检查 JAVA_HOME
echo $JAVA_HOME  # 应返回配置的路径

4. Docker安装

后面我们使用docker来安装kafka
具体安装步骤,请看Ubuntu-24安装Docker

5. 安装Kafka

官方文档:https://kafka.apache.org/documentation/#gettingStarted

5.1 创建目录

sudo mkdir -p /db/kafka # 为了放置kafka的一些文件

5.2 添加docker-compose.yml

cd /db/kafka

#新建目录,放kafka数据挂载并递归修改目录所有者(Kafka容器默认使用用户 UID 1001)
sudo mkdir kafka_data && sudo chown -R 1001:1001 ./kafka_data

# 生成集群Id(记住结果,后面docker-compose.yml用到),此命令只在集群第一个节点生成一次
echo $(docker run --rm bitnami/kafka:4.0.0 kafka-storage.sh random-uuid)

# 添加yml并将下面内容拷贝进去
sudo vim docker-compose.yml

内容如下:

services:
  kafka:
    image: bitnami/kafka:4.0.0  # 官方镜像
    container_name: kafka
    ports:
      - "9092:9092"            # 客户端通信端口
      - "9093:9093"            # 控制器端口(KRaft 模式必需)
    environment:
      - KAFKA_CLUSTER_ID=xXiglO5pQmWIfkSOWwb7Fg # 上面执行的结果
      - KAFKA_CFG_NODE_ID=1    # 节点 ID
      - KAFKA_CFG_PROCESS_ROLES=broker,controller  # 节点角色
      - KAFKA_CFG_CONTROLLER_QUORUM_VOTERS=1@kafka01:9093,2@kafka02:9093,3@kafka03:9093  # 控制器投票列表,静态仲裁(目前镜像还会检测这个配置,所以还需要有,但是正式选举已经不使用)
      - KAFKA_CFG_CONTROLLER_QUORUM_BOOTSTRAP_SERVERS=kafka01:9093,kafka02:9093,kafka03:9093  # 控制器投票列表,动态仲裁(kafka4.0默认采用动态仲裁,这个才是正在选举的配置项)
      - KAFKA_CFG_LISTENERS=PLAINTEXT://:9092,CONTROLLER://:9093
      - KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://kafka01:9092,CONTROLLER://kafka01:9093  # 按需替换 IP
      - KAFKA_CFG_CONTROLLER_LISTENER_NAMES=CONTROLLER
      - KAFKA_CFG_LISTENER_SECURITY_PROTOCOL_MAP=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL
      - KAFKA_CFG_AUTO_CREATE_TOPICS_ENABLE=false   # 不允许自动创建 Topic
      - ALLOW_PLAINTEXT_LISTENER=yes               # 允许明文传输
    volumes:
      - ./kafka_data:/bitnami/kafka     # 持久化数据卷(避免绑定挂载冲突)

5.2.1 environment 环境变量

注意:environment是进行环境配置,会动态覆盖server.properties中的参数,并不会修改容器内kafka的server.properties的文件,

  • 容器内安装目录
    • /opt//bitnami/kafka/
    • /opt//bitnami/kafka/config​​
      镜像默认配置
  • 动态数据目录
    • /bitnami/kafka
    • /bitnami/kafka/config​​
      用户自定义配置的入口,​​挂载后覆盖默认配置

如果要修改server.properties,可以在 ​​/bitnami/kafka/config​​下创建server.properties
加载优先级是:environment > 挂载的文件配置 > 镜像默认配置

5.2.2 server.properties

如果想查看kafka的配置,则执行

docker exec -it kafka cat /opt/bitnami/kafka/config/server.properties

server.properties 具体信息如下
请跳转这里查看

5.2.3 静态仲裁VS动态仲裁

执行以下命令

docker exec -it kafka /opt/bitnami/kafka/bin/kafka-features.sh --bootstrap-controller localhost:9093 describe
  • 若 kraft.version FinalizedVersionLevel: 0,则为静态仲裁。
  • 若 kraft.version FinalizedVersionLevel: 1,则为动态仲裁。

想要删除数据和容器,重新部署的话,可以执行以下命令

cd /db/kafka
docker compose down --volumes  # 注意:--volumes 会删除数据,如有需要,需提前备份!

# 删除挂载的宿主机kafka_data文件夹
sudo rm -rf kafka_data/

后面重复5.2的命令即可

5.3 其他服务器配置

  • kafka02
    - KAFKA_CFG_NODE_ID=2
    - KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://kafka02:9092,CONTROLLER://kafka02:9093
    
  • kafka03
    - KAFKA_CFG_NODE_ID=3
    - KAFKA_CFG_ADVERTISED_LISTENERS=PLAINTEXT://kafka03:9092,CONTROLLER://kafka03:9093
    

5.4 启动容器

分别执行以下命令,启动3台服务

sudo docker compose up -d      # 后台运行

5.5 验证服务状态

sudo docker compose ps         # 检查容器状态
docker compose logs -f kafka        # 查看日志(无报错即启动成功)

# 查看集群ID
docker exec -it kafka /opt/bitnami/kafka/bin/kafka-cluster.sh cluster-id --bootstrap-server kafka01:9092

5.6 外部连接kafka失败

# 验证9092端口有没有开启
sudo netstat -tulnp | grep 9092

# 如果发现端口已经开启了,且容器运行正常,则可能是防火墙没有运行9092端口
# 检查防火墙状态,如果是active则表示打开的,看一下下面有没有9092端口
sudo ufw status
# 如果没有9092端口,则需要开通9092端口
sudo ufw allow 9092/tcp

5.7 查看当前 Controllers 状态

docker exec -it kafka /opt/bitnami/kafka/bin/kafka-metadata-quorum.sh --bootstrap-server kafka01:9092 describe --status

返回内容

ClusterId:              xXiglO5pQmWIfkSOWwb7Fg
LeaderId:               2
LeaderEpoch:            6
HighWatermark:          349734
MaxFollowerLag:         0
MaxFollowerLagTimeMs:   4
CurrentVoters:          [{"id": 1, "directoryId": null, "endpoints": ["CONTROLLER://kafka01:9093"]}, {"id": 2, "directoryId": null, "endpoints": ["CONTROLLER://kafka02:9093"]}, {"id": 3, "directoryId": null, "endpoints": ["CONTROLLER://kafka03:9093"]}]
CurrentObservers:       []
  • LeaderId:当前的 Active Controller。
  • CurrentVoters:目前参与 Raft 投票的 Controller 节点 ID 列表(即所有 Controller 成员)
  • CurrentObservers:普通 Broker(不参与投票)的节点 ID 列表

6 安装Kafbat UI

具体安装步骤请看这里

7 Docker容器开机自启动服务

配置方式请看这里

使用上面两种方法中一种,给kafka和kafbat-ui两个容器设置自启动

<think>嗯,用户现在问的是关于Kafka 4.0在Docker中的使用。我需要先确认Kafka 4.0是否真的存在,因为可能用户记错了版本号。我记得Kafka的主要版本最近的是3.x系列,比如3.0到3.5,而4.0可能还在测试阶段或者用户可能有误。不过也有可能用户指的是某个特定的发行版或者更新。 首先,我应该检查Kafka的官方发布信息,确认是否存在4.0版本。如果不存在,可能需要指出用户的版本可能有误,并提供最新版本的信息。假设用户确实是指Kafka 4.0,可能是在测试阶段或者某个特定环境下的版本。 接下来,用户提到Docker,说明他们想在容器化环境中部署Kafka。常见的做法是使用Docker Compose来部署Kafka和ZooKeeper的组合,因为Kafka依赖ZooKeeper做集群管理。不过,Kafka 2.8.0之后开始支持Kraft模式,可以不依赖ZooKeeper,但可能用户还是更熟悉传统的ZooKeeper方式。 需要确保提供的Docker Compose文件是兼容的,并且配置正确。比如,Kafka的ADVERTISED_LISTENERS需要正确设置,否则客户端可能无法连接。同时,Kafka和ZooKeeper的版本需要匹配,否则可能出现兼容性问题。比如,Kafka 3.x通常需要ZooKeeper 3.5.x以上版本。 另外,用户可能关心如何管理Kafka容器,比如如何进入容器执行命令,如何监控,或者如何进行数据持久化。需要涵盖这些方面的内容,比如使用docker exec进入容器,使用kafka-topics.sh管理主题,以及配置卷来持久化数据。 还可能涉及安全性配置,比如SASL/SSL,但用户的问题可能更基础,所以这部分可以作为进阶内容简要提及。同时,性能调优也是一个重要点,比如调整JVM参数,或者配置Kafka的参数以适应容器环境。 用户可能遇到的问题包括网络配置错误导致生产者/消费者无法连接,数据持久化失败,或者资源不足导致的性能问题。需要给出常见问题的解决方案,比如检查ADVERTISED_LISTENERS,确保端口映射正确,配置数据卷,调整内存设置等。 最后,要确保提供的命令和配置示例准确无误,并且步骤清晰,用户能够按照步骤成功部署和运行Kafka 4.0(或正确版本)的Docker环境。如果有版本问题,需要明确指出,避免用户混淆。</think>#### **Kafka 4.0与Docker集成指南** --- ##### **一、Kafka 4.0核心更新** Kafka 4.0(注:截至2023年,**Apache Kafka最新稳定版本为3.5.x**,若需验证版本请参考[官网](https://kafka.apache.org/))假设为测试版本,可能包含以下特性: - **Kraft模式成熟**:完全弃用ZooKeeper,依赖内置共识协议 - **增量协作再平衡**:优化消费者组重平衡性能 - **增强事务支持**:跨分区原子性写入更稳定 - **性能提升**:吞吐量优化,延迟降低约15% --- ##### **二、Docker快速部署** ###### **1. 单节点部署(开发环境)** ```docker-compose.yml version: '3' services: zookeeper: image: confluentinc/cp-zookeeper:7.4.0 ports: - "2181:2181" environment: ZOOKEEPER_CLIENT_PORT: 2181 kafka: image: confluentinc/cp-kafka:7.4.0 # 对应Kafka 3.4.x ports: - "9092:9092" environment: KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://localhost:9092 KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181 KAFKA_AUTO_CREATE_TOPICS_ENABLE: 'true' depends_on: - zookeeper ``` ###### **2. Kraft模式部署(无需ZooKeeper)** ```docker-compose.yml services: kafka: image: apache/kafka:3.4.0 environment: KAFKA_CFG_NODE_ID: 1 KAFKA_CFG_PROCESS_ROLES: controller,broker KAFKA_CFG_CONTROLLER_QUORUM_VOTERS: 1@kafka:9093 KAFKA_CFG_LISTENERS: PLAINTEXT://:9092,CONTROLLER://:9093 KAFKA_CFG_ADVERTISED_LISTENERS: PLAINTEXT://localhost:9092 ports: - "9092:9092" ``` --- ##### **三、关键操作命令** ###### **1. 容器管理** ```bash # 启动集群 docker-compose up -d # 查看日志 docker-compose logs -f kafka # 进入容器执行命令 docker exec -it kafka bash ``` ###### **2. Topic操作** ```bash # 创建Topic(容器内执行) kafka-topics.sh --create \ --bootstrap-server localhost:9092 \ --replication-factor 1 \ --partitions 3 \ --topic test_topic # 列出所有Topic kafka-topics.sh --list --bootstrap-server localhost:9092 ``` ###### **3. 生产者/消费者测试** ```bash # 启动生产者 kafka-console-producer.sh \ --broker-list localhost:9092 \ --topic test_topic # 启动消费者 kafka-console-consumer.sh \ --bootstrap-server localhost:9092 \ --topic test_topic \ --from-beginning ``` --- ##### **四、生产环境配置优化** ###### **1. 数据持久化** ```docker-compose.yml kafka: volumes: - ./kafka_data:/var/lib/kafka/data ``` ###### **2. 资源限制** ```yaml environment: KAFKA_HEAP_OPTS: "-Xmx4G -Xms4G" # JVM内存限制 deploy: resources: limits: cpus: '2' memory: 8G ``` ###### **3. 安全配置** ```yaml environment: KAFKA_SASL_ENABLED_MECHANISMS: PLAIN KAFKA_SECURITY_INTER_BROKER_PROTOCOL: SASL_PLAINTEXT KAFKA_SASL_MECHANISM_INTER_BROKER_PROTOCOL: PLAIN ``` --- ##### **五、典型问题排查** ###### **1. 客户端连接失败** - **检查项**: - `KAFKA_ADVERTISED_LISTENERS`是否匹配客户端访问IP - 防火墙是否开放9092端口 - 使用`telnet localhost 9092`测试连通性 ###### **2. 数据丢失风险** - **解决方案**: ```bash # 设置生产端ACK机制 acks=all min.insync.replicas=2 ``` ###### **3. 性能瓶颈** - **优化方向**: - 增加`num.io.threads`(默认8,可调至CPU核心数) - 调整`log.flush.interval.messages`(批量刷盘阈值) --- ##### **六、监控方案** ###### **1. Prometheus + Grafana** ```docker-compose.yml kafka: environment: KAFKA_METRICS_REPORTERS: io.confluent.metrics.reporter.ConfluentMetricsReporter CONFLUENT_METRICS_REPORTER_BOOTSTRAP_SERVERS: kafka:9092 ``` ###### **2. 内置工具** ```bash # 查看Broker状态 kafka-broker-api-versions.sh --bootstrap-server localhost:9092 # 监控消费组 kafka-consumer-groups.sh --bootstrap-server localhost:9092 --list ``` --- #### **总结建议** - **版本选择**:生产环境推荐使用Kafka 3.4.x + ZooKeeper 3.8.x组合 - **数据备份**:定期使用`kafka-mirror-maker`做跨集群同步 - **学习资源**: - [Apache Kafka官方文档](https://kafka.apache.org/documentation/) - [Confluent Docker镜像指南](https://docs.confluent.io/platform/current/installation/docker/config-reference.html)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值