zookeeper安装教程
第 1 章 Zookeeper 入门
1.1 概述
Zookeeper 是一个开源的分布式的,为分布式应用提供协调服务的 Apache 项目。
Zookeeper工作机制
1.2 特点
Zookeeper特点
1.3 数据结构
数据结构
1.4 应用场景
提供的服务包括:统一命名服务、统一配置管理、统一集群管理、服务器节点动态上下 线、软负载均衡等。
1.5 下载地址
1.官网首页:
https://zookeeper.apache.org/
2.下载截图,如图 5-5,5-6,5-7 所示
图 5-5 Zookeeper 下载(一)
图 5-6 Zookeeper 下载(二)
图 5-7 Zookeeper 下载(三)
第 2 章 Zookeeper 安装
2.1 本地模式安装部署
1.安装前准备
(1)安装 Jdk
(2)拷贝 Zookeeper 安装包到 /opt/software目录下
(3)解压到指定目录
[xikuang@hadoop102 software]$ tar -zxvf zookeeper-3.4.10.tar.gz -C /opt/module/
2.配置修改
(1)将/opt/module/zookeeper-3.4.10/conf 这个路径下的 zoo_sample.cfg 修改为 zoo.cfg;
[xikuang@hadoop102 conf]$ mv zoo_sample.cfg zoo.cfg
(2)打开 zoo.cfg 文件,修改 dataDir 路径:
[xikuang@hadoop102 conf]$ vim zoo.cfg
修改如下内容:
dataDir=/opt/module/zookeeper-3.4.10/zkData
(3)在/opt/module/zookeeper-3.4.10/这个目录上创建 zkData 文件夹
[xikuang@hadoop102 zookeeper-3.4.10]$ mkdir zkData
3.操作 Zookeeper
(1)启动 Zookeeper
[xikuang@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh start
(2)查看进程是否启动
[xikuang@hadoop102 zookeeper-3.4.10]$ jps
8480 DataNode
11888 RunJar
8329 NameNode
8841 NodeManager
9033 JobHistoryServer
11644 RunJar
13869 Jps
13838 QuorumPeerMain
(3)查看状态:
[xikuang@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: standalone
(4)启动客户端:
[xikuang@hadoop102 zookeeper-3.4.10]$ bin/zkCli.sh
(5)退出客户端:
[zk: localhost:2181(CONNECTED) 0] quit
(6)停止 Zookeeper
[xikuang@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh stop
2.2 配置参数解读
Zookeeper中的配置文件zoo.cfg中参数含义解读如下:
1.tickTime =2000:通信心跳数,Zookeeper 服务器与客户端心跳时间,单位毫秒
Zookeeper使用的基本时间,服务器之间或客户端与服务器之间维持心跳的时间间隔, 也就是每个tickTime时间就会发送一个心跳,时间单位为毫秒。
它用于心跳机制,并且设置最小的session超时时间为两倍心跳时间。(session的最小超 时时间是2*tickTime)
2.initLimit =10:LF 初始通信时限
集群中的Follower跟随者服务器与Leader领导者服务器之间初始连接时能容忍的最多心 跳数(tickTime的数量),用它来限定集群中的Zookeeper服务器连接到Leader的时限。
3.syncLimit =5:LF 同步通信时限
集群中Leader与Follower之间的最大响应时间单位,假如响应超过syncLimit * tickTime,Leader认为Follwer死掉,从服务器列表中删除Follwer。
4.dataDir:数据文件目录+数据持久化路径
主要用于保存 Zookeeper 中的数据。
5.clientPort =2181:客户端连接端口
监听客户端连接的端口。
第 3 章 Zookeeper 内部原理
3.1 选举机制(面试重点)
1)半数机制:集群中半数以上机器存活,集群可用。所以 Zookeeper 适合安装奇数台 服务器。
2)Zookeeper 虽然在配置文件中并没有指定 Master 和 Slave。但是,Zookeeper 工作时, 是有一个节点为 Leader,其他则为 Follower,Leader 是通过内部的选举机制临时产生的。
3)以一个简单的例子来说明整个选举的过程。
假设有五台服务器组成的 Zookeeper 集群,它们的 id 从 1-5,同时它们都是最新启动的, 也就是没有历史数据,在存放数据量这一点上,都是一样的。假设这些服务器依序启动,来 看看会发生什么,如图 5-8 所示。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9lDUmO0P-1640904246989)(file:///C:\Users\thinkpad\AppData\Local\Temp\msohtmlclip1\01\clip_image051.gif)]
图 5-8 Zookeeper 的选举机制
(1)服务器 1 启动,此时只有它一台服务器启动了,它发出去的报文没有任何响应, 所以它的选举状态一直是 LOOKING 状态。
(2)服务器 2 启动,它与最开始启动的服务器 1 进行通信,互相交换自己的选举结果, 由于两者都没有历史数据,所以 id 值较大的服务器 2 胜出,但是由于没有达到超过半数以 上的服务器都同意选举它(这个例子中的半数以上是 3),所以服务器 1、2 还是继续保持 LOOKING 状态。
(3)服务器 3 启动,根据前面的理论分析,服务器 3 成为服务器 1、2、3 中的老大, 而与上面不同的是,此时有三台服务器选举了它,所以它成为了这次选举的 Leader。
(4)服务器 4 启动,根据前面的分析,理论上服务器 4 应该是服务器 1、2、3、4 中最 大的,但是由于前面已经有半数以上的服务器选举了服务器 3,所以它只能接收当小弟的命 了。
(5)服务器 5 启动,同 4 一样当小弟。
3.2 节点类型
节点类型
在,只是Zookeeper给该节点名称进行顺序编号
Zookeeper给该节点名称进行顺序编号。
3.3 Stat 结构体
1)czxid-创建节点的事务 zxid
每次修改 ZooKeeper 状态都会收到一个 zxid 形式的时间戳,也就是 ZooKeeper 事务 ID。 事务 ID 是 ZooKeeper 中所有修改总的次序。每个修改都有唯一的 zxid,如果 zxid1 小
于 zxid2,那么 zxid1 在 zxid2 之前发生。 2)ctime - znode 被创建的毫秒数(从 1970 年开始) 3)mzxid - znode 最后更新的事务 zxid
4)mtime - znode 最后修改的毫秒数(从 1970 年开始) 5)pZxid-znode 最后更新的子节点 zxid
6)cversion - znode 子节点变化号,znode 子节点修改次数
7)dataversion - znode 数据变化号
8)aclVersion - znode 访问控制列表的变化号
9)ephemeralOwner- 如果是临时节点,这个是 znode 拥有者的 session id。如果不是临时节 点则是 0。
10)dataLength- znode 的数据长度
11)numChildren - znode 子节点数量
3.4 监听器原理(面试重点)
监听器原理
3.5 写数据流程
图 5-10 监听器原理
第 4 章 Zookeeper 实战(开发重点)
4.1 分布式安装部署
1.集群规划
在 hadoop102、hadoop103 和 hadoop104 三个节点上部署 Zookeeper。
2.解压安装
(1)解压 Zookeeper 安装包到/opt/module/目录下
[xikuang@hadoop102 software]$ tar -zxvf zookeeper-3.4.10.tar.gz -C /opt/module/
(2)同步/opt/module/zookeeper-3.4.10 目录内容到 hadoop103、hadoop104
[xikuang@hadoop102 module]$ xsync zookeeper-3.4.10/
3.配置服务器编号
(1)在/opt/module/zookeeper-3.4.10/这个目录下创建 zkData
[xikuang@hadoop102 zookeeper-3.4.10]$ mkdir -p zkData
(2)在/opt/module/zookeeper-3.4.10/zkData 目录下创建一个 myid 的文件
[xikuang@hadoop102 zkData]$ touch myid
添加 myid 文件,注意一定要在 linux 里面创建,在 notepad++里面很可能乱码
(3)编辑 myid 文件
[xikuang@hadoop102 zkData]$ vi myid
在文件中添加与 server 对应的编号:
2
(4)拷贝配置好的 zookeeper 到其他机器上
[xikuang@hadoop102 zkData]$ xsync myid
并分别在 hadoop102、hadoop103 上修改 myid 文件中内容为 3、4
4.配置 zoo.cfg 文件
(1)重命名/opt/module/zookeeper-3.4.10/conf 这个目录下的 zoo_sample.cfg 为 zoo.cfg
[xikuang@hadoop102 conf]$ mv zoo_sample.cfg zoo.cfg
(2)打开 zoo.cfg 文件
[xikuang@hadoop102 conf]$ vim zoo.cfg
修改数据存储路径配置
dataDir=/opt/module/zookeeper-3.4.10/zkData
增加如下配置
server.2=hadoop102:2888:3888
server.3=hadoop103:2888:3888
server.4=hadoop104:2888:3888
(3)同步 zoo.cfg 配置文件
[xikuang@hadoop102 conf]$ xsync zoo.cfg
(4)配置参数解读
server.A=B:C:D。
A 是一个数字,表示这个是第几号服务器;
集群模式下配置一个文件 myid,这个文件在 dataDir 目录下,这个文件里面有一个数据 就是 A 的值,Zookeeper 启动时读取此文件,拿到里面的数据与 zoo.cfg 里面的配置信息比 较从而判断到底是哪个 server。
B 是这个服务器的 ip 地址;
C 是这个服务器与集群中的 Leader 服务器交换信息的端口;
D 是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的
Leader,而这个端口就是用来执行选举时服务器相互通信的端口。
4.集群操作
(1)分别启动 Zookeeper
[xikuang@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh start
[xikuang@hadoop103 zookeeper-3.4.10]$ bin/zkServer.sh start
[xikuang@hadoop104 zookeeper-3.4.10]$ bin/zkServer.sh start
(2)查看状态
5. 配置zookeeper群起脚本
- 配置环境变量:
sudo vim /etc/profile
export ZOOKEEPER_HOME=/opt/module/zookeeper-3.4.10
:wq
source /etc/profile
# 分发到其他服务器
sudo xsync /etc/profile
-
编写群起脚本
cd /home/xikuang/bin vim myzkServer.sh
群起脚本内容:
#!/bin/bash
case $1 in
"start"){
for i in hadoop102 hadoop103 hadoop104
do
echo ---------- zookeeper $i 启动 ------------
ssh $i "source /etc/profile; /opt/module/zookeeper-3.4.10/bin/zkServer.sh start"
done
};;
"stop"){
for i in hadoop102 hadoop103 hadoop104
do
echo ---------- zookeeper $i 停止 ------------
ssh $i "source /etc/profile; /opt/module/zookeeper-3.4.10/bin/zkServer.sh stop"
done
};;
"status"){
for i in hadoop102 hadoop103 hadoop104
do
echo ---------- zookeeper $i 状态 ------------
ssh $i "source /etc/profile; /opt/module/zookeeper-3.4.10/bin/zkServer.sh status"
done
};;
esac
-
给脚本授予权限:
[xikuang@hadoop102 bin]$ sudo chmod 777 myzkServer.sh
4.2 客户端命令行操作
表 5-1
命令基本语法 | 功能描述 |
---|---|
help | 显示所有操作命令 |
ls path [watch] | 使用 ls 命令来查看当前 znode 中所包含的内容 |
ls2 path [watch] | 查看当前节点数据并能看到更新次数等数据 |
create | 普通创建 -s 含有序列 -e 临时(重启或者超时消失) |
get path [watch] | 获得节点的值 |
set | 设置节点的具体值 |
stat | 查看节点状态 |
delete | 删除节点 |
rmr | 递归删除节点 |
1.启动客户端
[xikuang@hadoop103 zookeeper-3.4.10]$ bin/zkCli.sh
2.显示所有操作命令
[zk: localhost:2181(CONNECTED) 1] help
3.查看当前 znode 中所包含的内容
[zk: localhost:2181(CONNECTED) 2] ls /
[zookeeper]
4.查看当前节点详细数据
[zk: localhost:2181(CONNECTED) 3] ls2 /
[zookeeper]
cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x0
cversion = -1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1
5.分别创建 2 个普通节点
[zk: localhost:2181(CONNECTED) 4] create /sanguo "jinlian"
Created /sanguo
[zk: localhost:2181(CONNECTED) 5] create /sanguo/shuguo "liubei"
Created /sanguo/shuguo
6.获得节点的值
[zk: localhost:2181(CONNECTED) 6] get /sanguo jinlian
jinlian
cZxid = 0x200000002
ctime = Tue Dec 28 23:14:16 CST 2021
mZxid = 0x200000002
mtime = Tue Dec 28 23:14:16 CST 2021
pZxid = 0x200000003
cversion = 1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 7
numChildren = 1
7.创建短暂节点
[zk: localhost:2181(CONNECTED) 7] create -e /sanguo/wuguo "zhouyu"
Created /sanguo/wuguo
(1)在当前客户端是能查看到的
[zk: localhost:2181(CONNECTED) 8] ls /sanguo
[wuguo, shuguo]
(2)退出当前客户端然后再重启客户端
[zk: localhost:2181(CONNECTED) 9] quit
Quitting...
2021-12-28 23:48:49,383 [myid:] - INFO [main:ZooKeeper@684] - Session: 0x27e01b637c40000 closed
2021-12-28 23:48:49,388 [myid:] - INFO [main-EventThread:ClientCnxn$EventThread@519] - EventThread shut down for session: 0x27e01b637c40000
[xikuang@hadoop102 zookeeper-3.4.10]$ bin/zkCli.sh
(3)再次查看根目录下短暂节点已经删除
[zk: localhost:2181(CONNECTED) 0] ls /sanguo
[shuguo]
8.创建带序号的节点
(1)先创建一个普通的根节点/sanguo/weiguo
[zk: localhost:2181(CONNECTED) 1] create /sanguo/weiguo "caocao"
Created /sanguo/weiguo
(2)创建带序号的节点
9.修改节点数据值
[zk: localhost:2181(CONNECTED) 2] set /sanguo/weiguo "simayi"
10.节点的值变化监听
(1)在 hadoop104 主机上注册监听/sanguo 节点数据变化
(2)在 hadoop103 主机上修改/sanguo 节点的数据
(3)观察 hadoop104 主机收到数据变化的监听
11.节点的子节点变化监听(路径变化)
(1)在 hadoop104 主机上注册监听/sanguo 节点的子节点变化
(2)在 hadoop103 主机/sanguo 节点上创建子节点
(3)观察 hadoop104 主机收到子节点变化的监听
12.删除节点
13.递归删除节点
14.查看节点状态
4.3 API 应用
4.3.1 Eclipse 环境搭建
1.创建一个 Maven 工程
2.添加 pom 文件
3.拷贝 log4j.properties 文件到项目根目录
需要在项目的 src/main/resources 目录下,新建一个文件,命名为“log4j.properties”,在 文件中填入。
4.3.2 创建 ZooKeeper 客户端
4.3.3 创建子节点
4.3.4 获取子节点并监听节点变化
4.3.5 判断 Znode 是否存在
4.4 监听服务器节点动态上下线案例
1.需求
某分布式系统中,主节点可以有多台,可以动态上下线,任意一台客户端都能实时感知 到主节点服务器的上下线。
2.需求分析,如图 5-12 所示
服务器动态上下线案例分析
图 5-12 服务器动态上下线
3.具体实现
(0)先在集群上创建/servers 节点
(1) 服务器端向 Zookeeper 注册代码 注意: 需要配置 main 函数的参数值
package com.aaa.zkcase;
import java.io.IOException;
import org.apache.zookeeper.CreateMode; import org.apache.zookeeper.WatchedEvent; import org.apache.zookeeper.Watcher; import org.apache.zookeeper.ZooKeeper; import org.apache.zookeeper.ZooDefs.Ids;
public class DistributeServer {
private static String connectString = “hadoop102:2181,hadoop103:2181,hadoop104:2181”;
private static int sessionTimeout = 2000; private ZooKeeper zk = null;
private String parentNode = “/servers”;
// 创建到 zk 的客户端连接
public void getConnect() throws IOException{
zk = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
@Override
public void process(WatchedEvent event) {
}
});
}
// 注册服务器
public void registServer(String hostname) throws Exception{
String create = zk.create(parentNode + “/server”, hostname.getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL_SEQUENTIAL);
System.out.println(hostname +" is online "+ create);
}
// 业务功能
public void business(String hostname) throws Exception{ System.out.println(hostname+" is working …");
Thread.sleep(Long.MAX_VALUE);
}
)
(2)客户端代码
package com.aaa.zkcase; import java.io.IOException; import java.util.ArrayList; import java.util.List;
import org.apache.zookeeper.WatchedEvent; import org.apache.zookeeper.Watcher; import org.apache.zookeeper.ZooKeeper;
public class DistributeClient {
private static String connectString = “hadoop102:2181,hadoop103:2181,hadoop104:2181”;
private static int sessionTimeout = 2000; private ZooKeeper zk = null;
private String parentNode = “/servers”;
// 创建到 zk 的客户端连接
public void getConnect() throws IOException {
zk = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
@Override
public void process(WatchedEvent event) {
// 再次启动监听
try {
getServerList();
} catch (Exception e) { e.printStackTrace();
}
}
});
}
// 获取服务器列表信息
public void getServerList() throws Exception {
// 1 获取服务器子节点信息,并且对父节点进行监听
List children = zk.getChildren(parentNode, true);
)// 2 存储服务器信息列表
ArrayList servers = new ArrayList<>();
// 3 遍历所有节点,获取节点中的主机名称信息
for (String child : children) {
byte[] data = zk.getData(parentNode + “/” + child, false, null);
servers.add(new String(data));
}
// 4 打印服务器列表信息
System.out.println(servers);
}
// 业务功能
public void business() throws Exception{
System.out.println(“client is working …”); Thread.sleep(Long.MAX_VALUE);
}
public static void main(String[] args) throws Exception {
// 1 获取 zk 连接
DistributeClient client = new DistributeClient(); client.getConnect();
// 2 获取 servers 的子节点信息,从中获取服务器信息列表
client.getServerList();
// 3 业务进程启动
client.business();
}
}
第 5 章 企业面试真题
5.1 请简述 ZooKeeper 的选举机制
详见 3.1。
5.2 ZooKeeper 的监听原理是什么?
详见 3.4。
5.3 ZooKeeper 的部署方式有哪几种?集群中的角色有哪些?集群最 少需要几台机器?
(1)部署方式单机模式、集群模式
(2)角色:Leader 和 Follower
(3)集群最少需要机器数:3
5.4 ZooKeeper 的常用命令
ls create get delete set…
zk.getChildren(parentNode, true);
)// 2 存储服务器信息列表
ArrayList servers = new ArrayList<>();
// 3 遍历所有节点,获取节点中的主机名称信息
for (String child : children) {
byte[] data = zk.getData(parentNode + “/” + child, false, null);
servers.add(new String(data));
}
// 4 打印服务器列表信息
System.out.println(servers);
}
// 业务功能
public void business() throws Exception{
System.out.println(“client is working …”); Thread.sleep(Long.MAX_VALUE);
}
public static void main(String[] args) throws Exception {
// 1 获取 zk 连接
DistributeClient client = new DistributeClient(); client.getConnect();
// 2 获取 servers 的子节点信息,从中获取服务器信息列表
client.getServerList();
// 3 业务进程启动
client.business();
}
}