目录
前面做了基于 Hbase 自带 Zookeeper 的安装配置(参考“Hbase 安装配置实验”),今天做了个基于独立 Zookeeper 集群的。
1. 实验环境
3 台 CentOS release 6.4 虚拟机,IP 地址为:
- 192.168.56.101 master
- 192.168.56.102 slave1
- 192.168.56.103 slave2
master 作为 hadoop 的 NameNode、SecondaryNameNode、ResourceManager,hbase 的HMaster;slave1、slave2 作为 hadoop 的 DataNode、NodeManager,hbase 的 HRegionServer;同时 master、slave1、slave2 作为三台 zookeeper 服务器。
- hadoop 2.7.2
- hbase 1.2.1
- zooeeper 3.4.8
2. 安装配置 zooeeper
# 在master上执行以下命令
cd /home/grid/
tar -zxvf zookeeper-3.4.8.tar.gz
ln -s zookeeper-3.4.8 zookeeper
cd zookeeper
mkdir data
cd conf
vi zoo.cfg
# 在配置文件中添加如下内容
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/grid/zookeeper/data
clientPort=2181
server.1=192.168.56.101:2888:3888
server.2=192.168.56.102:2888:3888
server.3=192.168.56.103:2888:3888
vi /home/grid/zookeeper/data/myid
# 内容就是1
1
scp -r /home/grid/zookeeper slave1:/home/grid/
scp -r /home/grid/zookeeper slave2:/home/grid/
# 在slave1上执行以下命令
vi /home/grid/zookeeper/data/myid
# 改为2
2
# 在slave2上执行以下命令
vi /home/grid/zookeeper/data/myid
# 改为3
3
3. 配置 hbase 的 zookeeper
# 在master上执行以下命令
vi /home/grid/hbase/conf/hbase-site.xml
# 修改下面的两个属性
<property>
<name>hbase.zookeeper.quorum</name>
<value>192.168.56.101,192.168.56.102,192.168.56.103</value> # 指定 zookeeper 集群节点名 , 因为是由 zookeeper 表决算法决定的
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name> # 指 zookeeper 集群 data 目录
<value>/home/grid/zookeeper/data</value>
</property>
把配置文件拷贝到另外两个 RegionServer 节点。
scp /home/grid/hbase/conf/hbase-site.xml slave1:/home/grid/hbase/conf/
scp /home/grid/hbase/conf/hbase-site.xml slave2:/home/grid/hbase/conf/
4. 测试
(1)分别启动三个 zookeeper 服务器
/home/grid/zookeeper/bin/zkServer.sh start
用 jps 可以看到 QuorumPeerMain 进程,如图1 所示。
图1
(2)启动 hadoop 和 hbase
$HADOOP_HOME/sbin/start-dfs.sh
$HADOOP_HOME/sbin/start-yarn.sh
/home/grid/hbase/bin/start-hbase.sh
master 上 jps 看到进程,如图2 所示。
图2
slave1、slave2 上 jps 看到进程,如图3 所示。
图3
zkCli.sh 中看到 hbase 如图4 所示。
图4
http://192.168.17.210:16010/master-status 中看到如图5 所示。
图5