kafka集群安装后的命令测试

本文详细介绍了在三台服务器上搭建Kafka集群的过程,包括启动Zookeeper和Kafka服务,创建并配置topic,以及通过producer和consumer进行消息传递测试。实验验证了即使部分节点宕机,Kafka仍能保持消息的正常传输。

转载 https://www.cnblogs.com/younldeace/p/3796580.html

在129上启动zookeeper服务器

1

bin/zkServer.sh start conf/zoo.cfg

 启动129,132,133上的kafka服务

1

[root@bogon kafka_2.8.0-0.8.1]# nohup bin/kafka-server-start.sh config/server.properties &

 在任意机器上建一个topic,因为有三个kafka服务,所以这里replication-factor设为3

1

2

bin/kafka-topics.sh --create --zookeeper 192.168.128.129:2181 --replication-factor 3 -partitions 1 --topic 3test

Created topic "3test".

 

 查看topic,此时的leader kafka为129,repicas:集群里有三个kafka,Isr:正常使用的kafka

1

2

3

bin/kafka-topics.sh --describe --zookeeper 192.168.128.129:2181

Topic:3test PartitionCount:1    ReplicationFactor:3 Configs:

    Topic: 3test    Partition: 0    Leader: 129 Replicas: 129,132,133   Isr: 129,132,133

 在133这台机器上开启一个producer,往132这个kafka发消息

 

1

2

3

[root@slave-03 kafka_2.8.0-0.8.1]# bin/kafka-console-producer.sh --broker-list 192.168.128.132:9092 --topic 3test

this is a message to 132 broker

re?

 停掉132的kafka,再次查看topics,此时可用的Isr为129和133,leader依然为129,因为129的kafka没有被停过,所以没有重新选举leader

1

2

3

[root@slave-02 kafka_2.8.0-0.8.1]# bin/kafka-topics.sh --describe --zookeeper 192.168.128.129:2181

Topic:3test PartitionCount:1    ReplicationFactor:3 Configs:

    Topic: 3test    Partition: 0    Leader: 129 Replicas: 129,132,133   Isr: 129,133

 在129上开启一个consumer

1

2

3

[root@bogon kafka_2.8.0-0.8.1]# bin/kafka-console-consumer.sh --zookeeper 192.168.128.129:2181 --topic 3test --from-beginning

this is a message to 132 broker

re?

 

自此,发现停掉了132,依然能通过zookeeper从129和133的kafka上收到发往132的消息。

kafka集群测试通过

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值