文章目录
一、前言
1、HBase 依赖于 HDFS 做底层的数据存储
2、HBase 依赖于 MapReduce 做数据计算
3、HBase 依赖于 ZooKeeper 做服务协调
4、HBase源码是java编写的,安装需要依赖JDK
二、JDK / Hadoop 的选择
此处我们的hadoop版本用的的是2.6.0,HBase选择的版本是1.2.0
三、安装
1、zookeeper的安装
2、Hadoopd的安装
3、下载安装包
找到官网下载 hbase 安装包 hbase-1.2.0-bin.tar.gz,这里给大家提供一个下载地址: http://mirrors.hust.edu.cn/apache/hbase/
4、上传服务器并解压缩到指定目录
5、修改配置文件
配置文件目录在安装包的conf文件夹中
(1)修改hbase-env.sh
1.export JAVA_HOME=/usr/local/softwave/jdk1.8.0_111
2.export HBASE_MANAGES_ZK=false //使用外部zookeeper
(2)修改hbase-site.xml
<!—hbase.rootdir 将数据写入哪个目录 如果是单机版只要配置此属性就可以,value中file:/绝对路径,如果是分布式则配置与hadoop的core-site.sh服务器、端口以及zookeeper中事先创建的目录一致-->
<property>
<name>>hbase.rootdir</name>
<value>hdfs://192.168.56.137:9000/hbase</value>
</property>
<!—单机模式不需要配置,分布式配置此项为true-->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!—单机模式不需要配置 分布是配置此项为zookeeper指定的物理路径名 指定 zk 的地址,多个用“,”分割-- >
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/soft/zookeeper345/data</value>
</property>
(3)修改regionservers
如果搭建的是完全分布式的集群,就还需要修改regionservers ,可参考如下方式
[hadoop@hadoop1 conf]$ vi regionservers
hadoop1
hadoop2
hadoop3
hadoop4
6、配置环境变量
d)配置/etc/profile
export HBASE_HOME=/usr/local/softwave/hbase-1.2.1
export PATH=….:$HBASE_HOME/bin
四、启动HBase集群
严格按照启动顺序进行 。
1、启动zookeeper集群
[root@zj1 hbase120]# zkServer.sh start
JMX enabled by default
Using config: /opt/soft/zookeeper345/bin/../conf/zoo.cfg
Starting zookeeper ... already running as process 12223.
2、启动HBase
[root@zj1 conf]# start-hbase.sh