hbase安装(使用已经安装的HDFS和zookeeper)

本文介绍了如何在已安装的HDFS和Zookeeper基础上安装HBase。首先启动Zookeeper和Hadoop,然后下载并配置HBase,确保版本匹配。重点在于修改`hbase-env.sh`和`hbase-site.xml`配置文件,特别是`hbase.rootdir`、`hbase.cluster.distributed`、`hbase.zookeeper.quorum`和`hbase.zookeeper.property.dataDir`。最后,将HBase复制到所有节点,启动服务,并解决可能的HRegionServer启动问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 先启动zookeeper和hadoop,方便后面查找信息,不启动也没关系,自己去配置文件找也行
  2. 查看hbase可以匹配的hadoob和jdk的版本,然后下载,这次用hbase.1.0.2和hadoop2.5
    查看是否匹配
    下载地址
  3. 上传到服务器后,减压:
    tar -zxvf hbase-1.0.2-bin.tar.gz
  4. 网上都说如果集群版的hadood的jar和hbase的jar包版本不一致,会有问题,我就换了(没试过不换会发生什么),先删掉hbase的hadoop*jar:rm -rf hbase/lib/hadoop*jar
  5. 换的命令修改一下,具体我忘了,差不多是这个:find /home/hadoop-2.5.2 -name “hadoop*jar*” | xargs -i cp {} ./hbase/lib

  6. 修改2个配置文件hbase-env.sh 和hbase-site.xml

vi conf/hbase-env.sh 
export JAVA_HOME=/usr/lib/jvm/java
export HBASE_CLASSPATH=/usr/local/cloudwave-hbase/hadoop/etc/hadoop
export HBASE_MANAGES_ZK=false
第一个参数指定了JDK路径;第二个参数指定了 hadoop 的配置文件路径;第三个参数设置使用 hbase 默认自带的 Zookeeper 

修改hbase-site.xml很重要,
1)hbase.rootdir得和你的hadoop配置的名字和端口一致,你可以查看http://hadoop:50070/显示主节点的那个,直接复制过来。也可以查看hadood的配置文件找。
2)hbase.cluster.distributed是否是分布式
3)2hbase.zookeeper.quorum这个得和zookeeper一致,去zookeeper配置文件找
4)hbase.zookeeper.property.dataDir同上

 vi hbase-site.xml
<property>
<name>hbase.rootdir</name>
<value>hdfs://cloudwave0:54310/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>192.168.0.13,192.168.0.14,192.168.0.15</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/cloudwave-hbase/cloudwave/../zookeeper/zookeeper_data</value>
</property>
vi regionservers


cloudwave0
cloudwave1
cloudwave2

设置环境变量,根据实际路径修改:

[grid@hadoop4 ~]$ vi .bash_profile 
export HBASE_HOME=/home/grid/hbase-1.0.0 
export PATH=$PATH:$HBASE_HOME/bin 
[grid@hadoop4 ~]$ source .bash_profile
  1. 准备工作完成了,拷贝到个节点下
    scp -r hbase-1.0.2 cloudwave@cloudwave1:~
    scp -r hbase-1.0.2 cloudwave@cloudwave2:~

  2. 启动

如果不成功,去上级目录的logs查看错误日志

./start-hbase.sh
  1. 正常启动的进程有这几个,主要是HMaster和HRegionServer,其他的都是haoop和zookeeper的进程:
    这说个奇葩的问题,hbase的主节点启动,一般会启动不了HRegionServer,所以有这个脚本解决就好:
    ./local-regionservers.sh start 2
cloudwave0:
[cloudwave@cloudwave0 logs]$ jps
26707 NameNode
30679 Main
29473 HRegionServer
26815 DataNode
27202 DFSZKFailoverController
28722 HMaster
31446 Jps
27009 JournalNode
26568 QuorumPeerMain
 cloudwave1:
 [cloudwave@cloudwave1 bin]$ jps
18634 JournalNode
19672 HRegionServer
21223 Jps
18462 NameNode
18764 DFSZKFailoverController
18540 DataNode
cloudwave2:
[cloudwave@cloudwave2 lib]$ jps
3338 QuorumPeerMain
5177 Jps
3481 JournalNode
4158 HRegionServer
3394 DataNode
  1. hbase shell
    这里写图片描述
  2. 列表内容

web访问地址是
主节点ip:16010/
这里写图片描述

今天太晚了,还是 加班状态,明天写总结吧!!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值