Zookeeper和Kafka安装与配置

(一)Zookeeper的安装与配置

(1)解压apache-zookeeper-3.8.0-bin.tar.gz解压到/export/servers目录下

tar -zxvf zookeeper-3.4.9.tar. gz -C /export/servers

(2)修改apache-zookeeper-3.8.0-bin的名称为zookeeper

mv zookeeper-3.4.9.tar.gz zookeeper

(3)复制Zookeeper配置文件zoo_sample.cfg名为zoo.cfg

 

(4)编辑zoo.cfg

server.1=node01:2888:3888
server.2=node02:2888:3888
server.3=node03:2888:3888

 

(5)创建Zookeeper数据文件夹zkdata和日志文件夹zkdatalog

(6)修改文件夹zkdata和zkdatalog读写权限

(7)配置并刷新环境变量 

vim /etc/profile

添加以上内容于环境变量里

(8)拷贝node01主机/etc/profile文件到node02、node03主机。

scp / etc/profile node02 : /etc/profile
scp / etc/profile node03 : /etc/profile

(9)

当前主节点node01机上,将字符串“1”写入文件myid。echo “1” > myid

当前主节点node02机上,将字符串“2”写入文件myid。echo “2” > myid

当前主节点node03机上,将字符串“3”写入文件myid。echo “3” > myid

(10)Zookeeper的启动,三台主机分别执行启动。

zkServer.sh start

 

查看Zookeeper的状态,三台主机分别执行查看指令。

zkServer.sh status

 

 

 

停止Zookeeper进程,三台主机分别执行停止指令。

zkServer.sh stop

 

(二)Kafka集群的安装与配置

(1)解压Kafka压缩文件至/opt目录

tar -zxvf kafka-0.10.2.2-src.tgz -C /export/servers/
 

(2)修改解压后文件夹的名字为kafka

   mv kafka-0.10.2.2-src/kafka
 

(3)node01主机配置service.properties文件

  

  

(4)主节点node01上创建日志文件夹

mkdir -p /root/kafka
 

(5)将配置完的kafka分发至node02、node03机器

scp -r  /root/katka/ node02:/root

scp -r  /root/kafka/ node03:/root
 

(6)node02主机配置service.properties文件

 

(7)node03主机配置service.properties文件

 

 

(8)三台机器上分别启动Zookeeper服务

zkServer.sh start

(9)三台机器上分别启动Kafka服务(kafka安装目录下)

bin/kafka-server-start.sh

### ZooKeeper Kafka 安装配置教程 #### 一、环境准备 对于安装ZooKeeperKafka,需要先准备好Java运行环境。确保已安装JDK并设置好`JAVA_HOME`环境变量[^1]。 #### 二、下载软件包 访问Apache官方网站获取最新版本的ZooKeeperKafka压缩文件。通常情况下,这两个工具会以`.tar.gz`的形式提供给用户下载[^2]。 #### 三、解压基本路径设定 将下载好的两个压缩包分别放置于合适的位置,并通过命令行完成解压操作: ```bash $ tar -xzf kafka_2.x.y.tgz $ tar -xzf zookeeper-a.b.c.tar.gz ``` 这里假设已经成功创建了相应的目录结构用于后续步骤中的配置工作[^3]。 #### 四、启动Zookeeper服务端 进入zookeeper根目录下的bin子目录执行如下指令来开启单机模式的服务实例: ```bash $ ./zkServer.sh start ``` 此时应该可以在控制台看到提示信息表明服务器已经开始正常运作[^4]。 #### 五、修改kafka配置文件 编辑位于`/path/to/kafka/config/server.properties`内的参数列表,重点调整以下几个选项以便更好地适配当前使用的Zookeeper集群地址以及监听器等相关属性: - `broker.id=0`: 设置唯一的代理ID编号; - `listeners=PLAINTEXT://:9092`: 明确指定对外暴露的服务接口; - `advertised.listeners=PLAINTEXT://your.host.name:9092`: 对外宣传的实际连接字符串; - `log.dirs=/tmp/kafka-logs`: 日志存储位置; - `zookeeper.connect=localhost:2181`: 连接至本地运行着的一份Zookeeper副本; 以上各项均需依据实际部署情况作出适当更改[^5]。 #### 六、初始化topic元数据管理机制 为了使Kafka能够利用上一步骤所指明的目标Zookeeper节点保存主题(Topic)的相关描述资料,在继续之前还需要额外增一条记录到对应的配置文档里头去——即添下面这句声明语句: ```properties delete.topic.enable=true ``` 此开关允许管理员日后可以通过官方提供的CLI工具安全地移除不再需要的主题资源对象而不必担心残留的数据碎片影响系统性能表现[^6]。 #### 七、激活Kafka Broker进程 返回至上层目录并通过脚本方式快速载刚才自定义过的那一套策略组合方案: ```bash $ bin/kafka-server-start.sh config/server.properties & ``` 注意这里的后台化处理(`&`)可以让整个过程更流畅自然,不会因为终端窗口关闭而导致程序意外中断退出[^7]。 ---
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

菜鸟安安

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值