HBase集群搭建(详细教程)
1、先启动HA hadoop、zookeeper系统(zookeeper搭建教程在以往文章里有)
2、上传并解压安装包hbase-1.4.8-bin.tar.gz
3、进入conf目录,修改配置文件
(1) 配置hbase-site.xml文件
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
<!--指定Zookeeper集群节点-->
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/root/zookeeper/zkdata</value>
<!--指定Zookeeper数据存储目录-->
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
<!--指定Zookeeper端口号-->
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://cluster1/hbase</value>
<!--指定HBase在HDFS上的根目录-->
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
<!--指定true为分布式集群部署-->
</property>
(2) 配置regionservers文件
master
slave1
slave2
(3) 配置backup-masters文件
slave1
(4)配置conf文件夹下的hbase-env.sh配置文件
export JAVA_HOME=java的安装路径
export HBASE_MANAGES_ZK=false
<--使用独立的zookeeper集群-->
(5) 同时将hadoop的配置文件hdfs-site.xml和core-site.xml复制到hbase的conf目录下。(不然会报找不到myha的错误)
(6) 配置/etc/profile中的环境变量,修改HBASE_HOME和PATH变量,并刷新环境变量配置文件。
(7) 将hbase的安装目录和/etc/profile文件,都scp到slave1和slave2两台机,并刷新环境变量。
scp -r /etc/profile/ root@slave1:/etc/
scp -r /etc/profile/ root@slave2:/etc/
4、启动Hbase集群,在master机上执行命令,并执行hbase shell命令进入hbase的客户端界面。
start-hbase.sh
5、jps命令查看是否有HMaster和HRegionServer进程启动
6、查看Hbase的web界面
查看master状态
http://master:16010/master-status
http://master:16010/slave1-status