1.上传解压
2.把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下
3.修改配置文件
3.1 vim hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_55
//告诉hbase使用外部的zk
export HBASE_MANAGES_ZK=false
3.2 vim hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://nameservice1/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop005:2181,hadoop006:2181,hadoop007:2181</value>
</property>
</configuration>
3.3 vim regionservers
hadoop003
hadoop004
hadoop005
hadoop006
hadoop007
4.拷贝hbase到其他节点
scp -r /opt/hbase-xxx/ hadoop@hadoopxxx:/opt/
5.同步时间。
6.启动所有的hbase
分别启动zk
./zkServer.sh start
启动hadoop集群
start-dfs.sh
启动hbase,在主节点上运行:
start-hbase.sh
最后可通过hadoop001:60010查看管理界面