kafka4.0集群部署

kafka4.0是最新版kafka,可在kafka官网下载,依赖的jdk版本要求在jdk17及jdk17以上

tar -xzf kafka_2.13-4.0.0.tgz

mv kafka_2.13-4.0.0 kafka

cd kafka

# 随便一台节点运行生成随机uuid,后面每台节点都要使用此uuid

bin/kafka-storage.sh random-uuid         生成的uuid(IyyjPwZcTa2LHKkV1rj5pg)

# 每个节点需要在config/server.properties中配置相关内容

node.id

controller.quorum.voters=1@192.168.10.10:9093,2@192.168.10.20:9093,3@192.168.10.30:9093

log.dirs=/opt/kafka/log/kraft-combined-logs

num.partitions=16

# 每台节点设置日志目录的格式,$KAFKA_CLUSTER_ID应为上面生成的值,每个节点都要用相同的uuid

bin/kafka-storage.sh format -t IyyjPwZcTa2LHKkV1rj5pg -c config/server.properties

# 启动 Kafka 服务,每台节点都执行

bin/kafka-server-start.sh -daemon  /opt/kafka/config/server.properties

# 测试kafka集群

# 创建主题名为cluster-topic存储事件

bin/kafka-topics.sh --bootstrap-server 192.168.10.10:9092 --create --topic cluster-topic1 --partitions 3 --replication-factor 3

# 在其他节点(9092)查询该topic

bin/kafka-topics.sh --describe --topic cluster-topic1 --bootstrap-server 192.168.10.20:9092

# 将事件写入主题

bin/kafka-console-producer.sh --topic cluster-topic1 --bootstrap-server 192.168.10.10:9092

This is my first event

This is my second event

# 读取事件

bin/kafka-console-consumer.sh --topic cluster-topic --from-beginning --bootstrap-server 192.168.10.10:9092

# 删除主题

bin/kafka-topics.sh --bootstrap-server 192.168.10.10:9092 --delete --topic cluster-topic

# 配置systemd服务

# 先关闭kafka服务

/opt/kafka/bin/kafka-server-stop.sh config/server.properties

# 配置服务

cat >>/etc/systemd/system/kafka.service << EOF

[Unit]

Description=Apache Kafka Service (KRaft Mode)

After=network.target



[Service]

Type=simple

User=root

Group=root

ExecStart=/opt/kafka/bin/kafka-server-start.sh /opt/kafka/config/server.properties

ExecStop=/opt/kafka/bin/kafka-server-stop.sh

Restart=on-abnormal

WorkingDirectory=/opt/kafka

Environment="JAVA_HOME=/usr/local/jdk-17.0.12"



[Install]

WantedBy=multi-user.target

EOF



systemctl daemon-reload

systemctl start kafka

systemctl status kafka

<think>嗯,用户现在问的是关于Kafka 4.0在Docker中的使用。我需要先确认Kafka 4.0是否真的存在,因为可能用户记错了版本号。我记得Kafka的主要版本最近的是3.x系列,比如3.0到3.5,而4.0可能还在测试阶段或者用户可能有误。不过也有可能用户指的是某个特定的发行版或者更新。 首先,我应该检查Kafka的官方发布信息,确认是否存在4.0版本。如果不存在,可能需要指出用户的版本可能有误,并提供最新版本的信息。假设用户确实是指Kafka 4.0,可能是在测试阶段或者某个特定环境下的版本。 接下来,用户提到Docker,说明他们想在容器化环境中部署Kafka。常见的做法是使用Docker Compose来部署Kafka和ZooKeeper的组合,因为Kafka依赖ZooKeeper做集群管理。不过,Kafka 2.8.0之后开始支持Kraft模式,可以不依赖ZooKeeper,但可能用户还是更熟悉传统的ZooKeeper方式。 需要确保提供的Docker Compose文件是兼容的,并且配置正确。比如,Kafka的ADVERTISED_LISTENERS需要正确设置,否则客户端可能无法连接。同时,Kafka和ZooKeeper的版本需要匹配,否则可能出现兼容性问题。比如,Kafka 3.x通常需要ZooKeeper 3.5.x以上版本。 另外,用户可能关心如何管理Kafka容器,比如如何进入容器执行命令,如何监控,或者如何进行数据持久化。需要涵盖这些方面的内容,比如使用docker exec进入容器,使用kafka-topics.sh管理主题,以及配置卷来持久化数据。 还可能涉及安全性配置,比如SASL/SSL,但用户的问题可能更基础,所以这部分可以作为进阶内容简要提及。同时,性能调优也是一个重要点,比如调整JVM参数,或者配置Kafka的参数以适应容器环境。 用户可能遇到的问题包括网络配置错误导致生产者/消费者无法连接,数据持久化失败,或者资源不足导致的性能问题。需要给出常见问题的解决方案,比如检查ADVERTISED_LISTENERS,确保端口映射正确,配置数据卷,调整内存设置等。 最后,要确保提供的命令和配置示例准确无误,并且步骤清晰,用户能够按照步骤成功部署和运行Kafka 4.0(或正确版本)的Docker环境。如果有版本问题,需要明确指出,避免用户混淆。</think>#### **Kafka 4.0与Docker集成指南** --- ##### **一、Kafka 4.0核心更新** Kafka 4.0(注:截至2023年,**Apache Kafka最新稳定版本为3.5.x**,若需验证版本请参考[官网](https://kafka.apache.org/))假设为测试版本,可能包含以下特性: - **Kraft模式成熟**:完全弃用ZooKeeper,依赖内置共识协议 - **增量协作再平衡**:优化消费者组重平衡性能 - **增强事务支持**:跨分区原子性写入更稳定 - **性能提升**:吞吐量优化,延迟降低约15% --- ##### **二、Docker快速部署** ###### **1. 单节点部署(开发环境)** ```docker-compose.yml version: '3' services: zookeeper: image: confluentinc/cp-zookeeper:7.4.0 ports: - "2181:2181" environment: ZOOKEEPER_CLIENT_PORT: 2181 kafka: image: confluentinc/cp-kafka:7.4.0 # 对应Kafka 3.4.x ports: - "9092:9092" environment: KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://localhost:9092 KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181 KAFKA_AUTO_CREATE_TOPICS_ENABLE: 'true' depends_on: - zookeeper ``` ###### **2. Kraft模式部署(无需ZooKeeper)** ```docker-compose.yml services: kafka: image: apache/kafka:3.4.0 environment: KAFKA_CFG_NODE_ID: 1 KAFKA_CFG_PROCESS_ROLES: controller,broker KAFKA_CFG_CONTROLLER_QUORUM_VOTERS: 1@kafka:9093 KAFKA_CFG_LISTENERS: PLAINTEXT://:9092,CONTROLLER://:9093 KAFKA_CFG_ADVERTISED_LISTENERS: PLAINTEXT://localhost:9092 ports: - "9092:9092" ``` --- ##### **三、关键操作命令** ###### **1. 容器管理** ```bash # 启动集群 docker-compose up -d # 查看日志 docker-compose logs -f kafka # 进入容器执行命令 docker exec -it kafka bash ``` ###### **2. Topic操作** ```bash # 创建Topic(容器内执行) kafka-topics.sh --create \ --bootstrap-server localhost:9092 \ --replication-factor 1 \ --partitions 3 \ --topic test_topic # 列出所有Topic kafka-topics.sh --list --bootstrap-server localhost:9092 ``` ###### **3. 生产者/消费者测试** ```bash # 启动生产者 kafka-console-producer.sh \ --broker-list localhost:9092 \ --topic test_topic # 启动消费者 kafka-console-consumer.sh \ --bootstrap-server localhost:9092 \ --topic test_topic \ --from-beginning ``` --- ##### **四、生产环境配置优化** ###### **1. 数据持久化** ```docker-compose.yml kafka: volumes: - ./kafka_data:/var/lib/kafka/data ``` ###### **2. 资源限制** ```yaml environment: KAFKA_HEAP_OPTS: "-Xmx4G -Xms4G" # JVM内存限制 deploy: resources: limits: cpus: '2' memory: 8G ``` ###### **3. 安全配置** ```yaml environment: KAFKA_SASL_ENABLED_MECHANISMS: PLAIN KAFKA_SECURITY_INTER_BROKER_PROTOCOL: SASL_PLAINTEXT KAFKA_SASL_MECHANISM_INTER_BROKER_PROTOCOL: PLAIN ``` --- ##### **五、典型问题排查** ###### **1. 客户端连接失败** - **检查项**: - `KAFKA_ADVERTISED_LISTENERS`是否匹配客户端访问IP - 防火墙是否开放9092端口 - 使用`telnet localhost 9092`测试连通性 ###### **2. 数据丢失风险** - **解决方案**: ```bash # 设置生产端ACK机制 acks=all min.insync.replicas=2 ``` ###### **3. 性能瓶颈** - **优化方向**: - 增加`num.io.threads`(默认8,可调至CPU核心数) - 调整`log.flush.interval.messages`(批量刷盘阈值) --- ##### **六、监控方案** ###### **1. Prometheus + Grafana** ```docker-compose.yml kafka: environment: KAFKA_METRICS_REPORTERS: io.confluent.metrics.reporter.ConfluentMetricsReporter CONFLUENT_METRICS_REPORTER_BOOTSTRAP_SERVERS: kafka:9092 ``` ###### **2. 内置工具** ```bash # 查看Broker状态 kafka-broker-api-versions.sh --bootstrap-server localhost:9092 # 监控消费组 kafka-consumer-groups.sh --bootstrap-server localhost:9092 --list ``` --- #### **总结建议** - **版本选择**:生产环境推荐使用Kafka 3.4.x + ZooKeeper 3.8.x组合 - **数据备份**:定期使用`kafka-mirror-maker`做跨集群同步 - **学习资源**: - [Apache Kafka官方文档](https://kafka.apache.org/documentation/) - [Confluent Docker镜像指南](https://docs.confluent.io/platform/current/installation/docker/config-reference.html)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我变秃了也没变强

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值