zk集群安装

1、下载与解压

  Zookeeper下载地址:https://apache.org/dist/zookeeper/zookeeper-3.5.5/

  下载完成以后解压到一个特定目录

关闭防火墙
$ service iptables stop

2、集群安装

tar -zxvf apache-zookeeper-3.5.5.tar.gz 

 

3.集群配置

3.1创建数据文件夹mkdir data

apache-zookeeper-3.5.5/data

3.2创建myid文件

myid 内容为1

3.3 修改zoo.cfg文件

3.3.1复制zoo.cfg文件

cp zoo_sample.cfg zoo.cfg

server.1=ip1:2888:3888

server.2=ip2:2888:3888

server.3=ip3:2888:3888

 

4.启动

Zookeeper集群的启动,需要进入各个节点单独启动。进入Zookeeper的/bin目录下执行命令 ./zkServer.sh start即可启动服务。然后执行命令./zkServer.sh status查看服务状态并可以看到当前节点是leader(主)节点还是follower(从)节点。 
 

 

### Kafka 集群连接 Zookeeper 集群安装教程 以下是关于如何搭建 Kafka 集群并将其连接到 Zookeeper 集群的具体方法: #### 一、环境准备 在开始之前,确保已经下载了所需的软件包。可以通过以下命令获取最新版本的 Apache Zookeeper 和 Kafka 软件包[^4]。 ```bash wget https://archive.apache.org/dist/zookeeper/zookeeper-3.5.7/apache-zookeeper-3.5.7-bin.tar.gz wget https://downloads.apache.org/kafka/2.8.0/kafka_2.13-2.8.0.tgz ``` 解压这些文件并将它们放置于合适的位置。 --- #### 二、Zookeeper 配置与启动 编辑 `zoo.cfg` 文件以完成基本配置。例如,在 `/usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg` 中设置如下参数[^3]: ```properties clientPort=2181 dataDir=/usr/local/zookeeper-cluster/zookeeper-1/data server.1=localhost:2888:3888 server.2=localhost:2889:3889 server.3=localhost:2890:3890 ``` 创建对应的数据目录,并在其中写入服务器 ID(如对于 server.1 创建一个名为 myid 的文件,内容为 “1”)。完成后可以依次启动各个节点的服务。 --- #### 三、Kafka 配置与启动 进入 Kafka 解压缩后的路径,找到 `config/server.properties` 文件进行必要的调整。主要涉及以下几个方面: - **broker.id**: 设置唯一的 broker 编号。 - **listeners**: 定义监听地址,默认可设为 PLAINTEXT://localhost:9092。 - **zookeeper.connect**: 填充实际使用的 Zookeeper 地址列表,形如 localhost:2181,localhost:2182,localhost:2183[^1]。 保存更改之后运行脚本来开启服务端口。 ```bash bin/kafka-server-start.sh config/server.properties & ``` 验证两者之间的通信状态是否正常工作即可认为成功建立了联系。 --- #### 四、注意事项 随着技术发展,自 Kafka 2.8.0 开始引入了基于 Raft 协议的新元数据管理模式——即所谓的 "KRaft" 方案,这标志着官方正在逐步淘汰传统上对 Zookeeper 的强绑定关系[^2]。因此如果考虑长期维护成本或者希望简化架构设计的话,则应该密切关注后续发行版动态以及迁移指南说明文档。 --- ### 示例代码片段展示 下面给出一段简单的 Python 程序用于测试生产者向主题发送消息的功能实现方式作为补充参考资料: ```python from kafka import KafkaProducer producer = KafkaProducer(bootstrap_servers='localhost:9092') for _ in range(10): producer.send('test-topic', b'sample message') ``` 此段程序利用 PyKafka 库实例化了一个 Producer 对象并通过指定目标 Topic 名称来推送若干条随机生成的信息样本给对应的消费者组订阅处理逻辑执行下去。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值