整个环境运行在vmware虚拟机下面,我使用的linux系统为centos6.5,本文是基于hadoop的hbase的安装过程,所以在安装Hbase之前确保hadoop集群已经搭载完毕
三台虚拟机环境
节点ip | 主机名 |
192.168.136.101 | mdw/master |
192.168.136.102 | sdw1/slave1 |
192.168.136.103 | sdw2/slave2 |
安装步骤
1.下载及解压HBase安装包HBase的安装包可以去apache官网上面下载,也可以在国内的镜像文件服务器中下载
我选择的是在http://mirror.bit.edu.cn/apache/hbase/hbase-0.94.26/中下载的hbase-0.94.26这个版本
解压文件
tar xzf hbase-0.94.26.tar.gz
2.修改hbase-env.sh
这个文件位于hbase主目录的conf文件下面
我的linux路径为/home/hadoop/hbase-0.94.26/conf路径下
(1)设置JAVA_HOME环境变量,这个变量根据自己的java安装目录设定
# The java implementation to use. Java 1.6 required.
export JAVA_HOME=/usr/java/jdk1.7.0_71
(2)设置HEAPSIZE大小,可根据自己内存实际情况改动,如果内存空间有足够大也可以不变# The maximum amount of heap to use, in MB. Default is 1000.
export HBASE_HEAPSIZE=50
(3)增加HABSE_CLASSPATH环境变量
该变量用于指定hadoop配置路径,以便hbase能找到hadoop
# Extra Java CLASSPATH elements. Optional.
export HBASE_CLASSPATH=/home/hadoop/hadoop-1.2.1/conf
其中路径参数根据自己实际hadoop安装路径修改,hadoop-1.2.1即为我安装的hadoop的主目录
(4)设置由hbase自己管理zookeeper,不需要单独的zookeeper
# Tell HBase whether it should manage it's own instance of Zookeeper or not.
export HBASE_MANAGES_ZK=true
3.配置hbase-site.xml
这个文件位于hbase主目录的conf文件下面
我的linux路径为/home/hadoop/hbase-0.94.26/conf路径下
(1)增加hbase.rootdir属性,此属性表示hbase数据放置的路径
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
(2)将hbase打开为分布模式 <property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
(3)添加zookeeper相关配置 <property>
<name>hbase.zookeeper.quorum</name>
<value>sdw1,sdw2</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/tmp/zookeeper</value>
</property>
所有这些添加的属性标签都位于<configuration>标签里面4.编辑regionservers文件
这个文件位于hbase主目录的conf文件下面
我的linux路径为/home/hadoop/hbase-0.94.26/conf路径下
添加所有Region服务器的主机名或IP地址
sdw1
sdw2
5.替换hadoop core jar包
主要为了防止因为hbase和hadoop版本不同出现兼容问题,造成hmaster启动异常
此jar位于hbase主目录下面lib目录中,我的为hadoop-core-1.0.4.jar,可以将其文件名修改为.sav结尾
然后需要将hadoop主目录下的hadoop-core-...这个文件复制过来
在/home/hadoop/hbase-0.94.26/lib目录下输入
mv hadoop-core-1.0.4.jar hadoop-core-1.0.4.sav
cp ~/hadoop-1.2.1/hadoop-core-1.2.1.jar .
6.把HBase复制到其他节点
scp -r ~/hbase-0.94.26/ sdw1:/home/hadoop/
scp -r ~/hbase-0.94.26/ sdw2:/home/hadoop/
7.配置环境变量.bashrc
可以在主节点中修改,方便使用shell命令
export HBASE_HOME=/home/hadoop/hbase-0.94.26
export PATH=$HBASE_HOME/bin:$PATH
启动HBase并验证
在mater节点上面输入start-hbase.sh
即可开启HBase,通过jps可以查看具体执行的进程