1、上传安装包
把安装包上传到服务器
put -r "D:\hbase-1.2.6-bin.tar.gz"
2、解压缩安装包
tar -zxvf hbase-1.2.6-bin.tar.gz -C ~/apps/
3、修改配置文件
进入hbase配置文件目录
cd /root/apps/hbase-1.2.6/conf
待修改的文件:
hbase-env.sh
hbase-site.xml
regionservers
backup-masters
(1)hbase-env.sh
vim hbase-env.sh
#修改为自己安装的JDK目录
export JAVA_HOME=/usr/local/java/jdk1.8.0_73
#false表示不引用hbase自带的zookeeper,使用自己安装的
export HBASE_MANAGES_ZK=false
(2)hbase-site.xml
vim hbase-site.xml
<configuration>
<property>
<!-- 指定 hbase 在 HDFS 上存储的路径 -->
<name>hbase.rootdir</name>
<value>hdfs://myha01/hbase</value>
</property>
<property>
<!-- 指定 hbase 是分布式的 -->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<!-- 指定 zk 的地址,多个用“,”分割 -->
<name>hbase.zookeeper.quorum</name>
<value>hadoop01:2181,hadoop02:2181,hadoop03:2181,hadoop04:2181</value>
</property>
</configuration>
(3)regionservers
配置hbase从节点列表
vim regionservers
hadoop01
hadoop02
hadoop03
hadoop04
(4)backup-masters
配置备用的主节点列表:默认是没有这个文件的,新建一个,在文件中配置备用的主节点列表(一行一个主机名)
vim backup-masters
hadoop04
4、将hadoop集群中的core-site.xml、hdfs-site.xml这两个配置文件放置在hbase配置文件目录中
进入hadoop配置文件目录
cd /root/apps/hadoop-2.7.5/etc/hadoop
拷贝文件
cp core-site.xml hdfs-site.xml ~/apps/hbase-1.2.6/conf/
5、将hadoop01已安装好的hbase分发至另外3台机器(hadoop02、hadoop03、hadoop04)
scp -r hbase-1.2.6/ root@hadoop02:$PWD
scp -r hbase-1.2.6/ root@hadoop03:$PWD
scp -r hbase-1.2.6/ root@hadoop04:$PWD
6、配置hbase环境变量
vim /etc/profile
export HBASE_HOME=/root/apps/hbase-1.2.6
export PATH=$PATH:$HBASE_HOME/bin
刷新策略
source /etc/profile
7、启动集群
(1)启动zookeeper
启动:zkServer.sh start
停止:zkServer.sh stop
查看状态:zkServer.sh status
(2)启动HDFS
启动:start-dfs.sh
停止:stop-dfs.sh
查看状态:
hdfs haadmin -getServiceState nn1
hdfs haadmin -getServiceState nn2
(3)启动hbase
在哪个节点上执行,哪个节点就是主节点(hadoop01)
start-hbase.sh
启动备用节点(hadoop04)
hbase-daemon.sh start master
8、检测是否启动成功
(1)JPS命令查看对应的守护进程是否都启动成功
(2)启动HBASE的web管理界面
http://hadoop01:16010
http://hadoop04:16010
把安装包上传到服务器
put -r "D:\hbase-1.2.6-bin.tar.gz"
2、解压缩安装包
tar -zxvf hbase-1.2.6-bin.tar.gz -C ~/apps/
3、修改配置文件
进入hbase配置文件目录
cd /root/apps/hbase-1.2.6/conf
待修改的文件:
hbase-env.sh
hbase-site.xml
regionservers
backup-masters
(1)hbase-env.sh
vim hbase-env.sh
#修改为自己安装的JDK目录
export JAVA_HOME=/usr/local/java/jdk1.8.0_73
#false表示不引用hbase自带的zookeeper,使用自己安装的
export HBASE_MANAGES_ZK=false
(2)hbase-site.xml
vim hbase-site.xml
<configuration>
<property>
<!-- 指定 hbase 在 HDFS 上存储的路径 -->
<name>hbase.rootdir</name>
<value>hdfs://myha01/hbase</value>
</property>
<property>
<!-- 指定 hbase 是分布式的 -->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<!-- 指定 zk 的地址,多个用“,”分割 -->
<name>hbase.zookeeper.quorum</name>
<value>hadoop01:2181,hadoop02:2181,hadoop03:2181,hadoop04:2181</value>
</property>
</configuration>
(3)regionservers
配置hbase从节点列表
vim regionservers
hadoop01
hadoop02
hadoop03
hadoop04
(4)backup-masters
配置备用的主节点列表:默认是没有这个文件的,新建一个,在文件中配置备用的主节点列表(一行一个主机名)
vim backup-masters
hadoop04
4、将hadoop集群中的core-site.xml、hdfs-site.xml这两个配置文件放置在hbase配置文件目录中
进入hadoop配置文件目录
cd /root/apps/hadoop-2.7.5/etc/hadoop
拷贝文件
cp core-site.xml hdfs-site.xml ~/apps/hbase-1.2.6/conf/
5、将hadoop01已安装好的hbase分发至另外3台机器(hadoop02、hadoop03、hadoop04)
scp -r hbase-1.2.6/ root@hadoop02:$PWD
scp -r hbase-1.2.6/ root@hadoop03:$PWD
scp -r hbase-1.2.6/ root@hadoop04:$PWD
6、配置hbase环境变量
vim /etc/profile
export HBASE_HOME=/root/apps/hbase-1.2.6
export PATH=$PATH:$HBASE_HOME/bin
刷新策略
source /etc/profile
7、启动集群
(1)启动zookeeper
启动:zkServer.sh start
停止:zkServer.sh stop
查看状态:zkServer.sh status
(2)启动HDFS
启动:start-dfs.sh
停止:stop-dfs.sh
查看状态:
hdfs haadmin -getServiceState nn1
hdfs haadmin -getServiceState nn2
(3)启动hbase
在哪个节点上执行,哪个节点就是主节点(hadoop01)
start-hbase.sh
启动备用节点(hadoop04)
hbase-daemon.sh start master
8、检测是否启动成功
(1)JPS命令查看对应的守护进程是否都启动成功
(2)启动HBASE的web管理界面
http://hadoop01:16010
http://hadoop04:16010