Fabric docker compose文件-kafka

本文详细介绍了使用Docker Compose部署Kafka集群的方法,并深入解析了配置文件中各项参数的意义及作用,包括如何设置消息大小限制、副本策略、Zookeeper连接等关键配置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前提

compose配置文件:

docker-compose-kafkaX.yaml 

每个kafka节点有一个kX

docker-compose-kafka.yaml

version: '2'

services:

kX:

#kafka的镜像

image: hyperledger/fabric-kafka

#容器退出后的重启策略:始终重启
restart: always

#容器名称
container_name: kX

#容器的主机名
hostname: kX

#变量
environment:

# message.max.bytes
# The maximum size of envelope that the broker can receive.
- KAFKA_MESSAGE_MAX_BYTES=103809024 # 99 * 1024 * 1024 B
- KAFKA_REPLICA_FETCH_MAX_BYTES=103809024 # 99 * 1024 * 1024 B
- KAFKA_UNCLEAN_LEADER_ELECTION_ENABLE=false
- KAFKA_LOG_RETENTION_MS=-1

- KAFKA_BROKER_ID=X
# min.insync.replicas=M --- 设置一个M值(例如1<M<N,查看下面的default.replication.factor)
# 数据提交时会写入至少M个副本(这些数据然后会被同步并且归属到in-sync副本集合或ISR)。
# 其它情况,写入操作会返回一个错误。接下来:
# 1. 如果channel写入的数据多达N-M个副本变的不可用,操作可以正常执行。
# 2. 如果有更多的副本不可用,Kafka不可以维护一个有M数量的ISR集合,因此Kafka停止接收写操作。Channel只有当同步M个副本后才可以重新可以写。
- KAFKA_MIN_INSYNC_REPLICAS=2
- KAFKA_DEFAULT_REPLICATION_FACTOR=3
# 指向Zookeeper节点的集合,其中包含ZK的集合。
- KAFKA_ZOOKEEPER_CONNECT=z1:2181,z2:2181,z3:2181

#挂载
volumes:

# kafka数据存储路径,映射到本地
- ./chainData/kafka/kX/:/tmp/kafka-logs/

#映射端口的标签

ports:

- 9092:9092

#所有zookeeper和kafka容器的主机名与IP
extra_hosts:

- "z1:10.0.200.113"
- "z2:10.0.200.114"
- "z3:10.0.200.115"
- "k1:10.0.200.113"
- "k2:10.0.200.114"
- "k3:10.0.200.115"

- "k4:10.0.200.116"

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值