Apache HBASE的安装

本文介绍如何安装配置HBase 2.0.5版本,并确保其与Hadoop 2.7.7版本及Zookeeper集群兼容。包括下载、配置hbase-site.xml、hbase-env.sh等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.HBASE的版本特别注意(官网有说明)

可以说hbase对各JDK版本和HADOOP的版本都支持不一

对于JDK,目前推荐 8.x 版本

对于hadoop:

2.7.x 推荐 2.7.6+

2.8.x 推荐 2.8.3+

本次版本展示:

hadoop:Apache 2.7.7版本,JDK 1.8.0_73,HBASE版本 2.0.5

2.安装准备

由于HBASE依赖于HADOOP,JDK和zookeeper,所以此处默认你已经搭建了三者的集群

下载:

[hadoop@mycat01 ~]$ wget http://mirrors.tuna.tsinghua.edu.cn/apache/hbase/2.0.5/hbase-2.0.5-bin.tar.gz
3.安装
1)修改权限并解压
[hadoop@mycat01 ~]$ sudo chown hadoop:hadoop hbase-2.0.5-bin.tar.gz
[hadoop@mycat01 ~]$ chmod u+x hbase-2.0.5-bin.tar.gz

解压:

tar -zxvf hbase-2.0.5-bin.tar.gz
2)修改配置
cd /home/hadoop/hbase-2.0.5/conf
① 在hbase-site.xml添加配置如下
<property>
        <name>hbase.rootdir</name>  <!-- 配置hbase根目录 -->
        <value>hdfs://mkmg/user/hadoop/hbase</value><!-- hdfs://mkmg是我的hadoop入口 -->
</property>
<property>
        <name>hbase.cluster.distributed</name> <!-- 是否开启hbase分布式集群方案 -->
        <value>true</value>
</property>
<property>
        <name>hbase.zookeeper.quorum</name>  <!-- 默认的zookeeper是单节点的,设置为自己的zookeeper -->
        <value>mycat01:2181,mycat02:2181,mycat03:2181,</value>
</property>
② 配置 hbase-env.sh
export JAVA_HOME=/opt/jdk1.8.0_73  # 配置环境变量,记得打开注释
export HBASE_MANAGES_ZK=true  # 设置为zookeeper管理hbase集群
③ 配置regionservers(不要有多余换行和空格)
mycat02
mycat03
mycat04
④ 配置备份master节点 (不要有多余空格和换行)
mycat04
3)将 hadoop集群中 core-site.xmlhdfs-site.xml拷贝到hbase的conf目录下
cp /home/hadoop/hadoop-2.7.6/etc/hadoop/core-site.xml /home/hadoop/hbase-2.0.5/conf
cp /home/hadoop/hadoop-2.7.6/etc/hadoop/hdfs-site.xml /home/hadoop/hbase-2.0.5/conf

4)将hbase分发到各个节点,此处是 mycat02,mycat03和mycat04
scp -r /home/hadoop/hbase-2.0.5 hadoop@mycat02:/home/hadoop
scp -r /home/hadoop/hbase-2.0.5 hadoop@mycat03:/home/hadoop
scp -r /home/hadoop/hbase-2.0.5 hadoop@mycat04:/home/hadoop
5)创建链接并配置环境变量

每个节点上/home/hadoop/下创建链接

ln -s /home/hadoop/hbase-2.0.5 hbase

每个节点上配置环境变量

export HBASE_HOME=/home/hadoop/hbase
export PATH=$PATH:$HBASE_HOME/bin

使配置生效:

source /etc/profile
6)时间同步(hbase集群中节点时间差不超过30s)
7)启动(整个hadoop集群)
zkServer.sh start  # 必须最先启动
start-dfs.sh
start-yarn.sh   # yarn节点启动
start-hbase.sh 

日志中:首先在命令start-hbase.sh执行节点启动master,然后分别启动regionserver,最后启动备份master。

8)通过浏览器页面访问
http://主节点:16010

如果有相应的节点没有启动,可手动启动:

habse-daemon.sh start master|regionserver
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值