虚拟机centos7中安装hbase

1、下载包,并上传到虚拟机,解压至对应目录

Apache HBase – Apache HBase Downloads

tar -zxvf /tempupload/hbase-2.4.11-bin.tar.gz -C /opt/module
2、更改文件名为hbase

mv hbase-2.4.11 hbase
3、hbase-env.sh配置

export JAVA_HOME=/usr/local/java/jdk1.8.0_161

export HBASE_MANAGES_ZK=false

(HBase里面自带了一个ZooKeeper,对应的值为是否使用这个自带的ZooKeeper,我使用自己的ZooKeeper,所以修改为false)

4、regionservers配置(暂时只配了一台虚拟机)

hadoop100(自己虚拟机的主机地址)

5、hbase-site.xml配置

<property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
  </property>
  <property>
    <name>hbase.tmp.dir</name>
    <value>./tmp</value>
  </property>
  <property>
    <name>hbase.unsafe.stream.capability.enforce</name>
    <value>false</value>
  </property>
  <property>
    <name>hbase.rootdir</name>
    <value>hdfs://hadoop100:9000/hbase</value>
  </property>
  <property>
    <name>hbase.master.port</name>
    <value>16000</value>
  </property>
<property>
    <name>hbase.master.info.port</name>
    <value>16010</value>
  </property>
  <property>
   		<name>hbase.zookeeper.property.clientPort</name>
    	<value>2181</value>
   </property>
  <property>
    <name>hbase.zookeeper.quorum</name>
    <value>hadoop100</value>
  </property>
  <property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>/tmp/zookeeper/data</value>
  </property>

并创建配置中对应的目录tmp/hbase

配置zookeeper的目录要与zookeeper的配置目录一致

6、环境变量配置

vi /etc/profile

#hbase
export HBASE_HOME=/opt/module/hbase
export PATH=$PATH:$HBASE_HOME/bin

#使配置生效 source /etc/profile

7、替换 Hadoop jar 包

查看 HBase 的 Hadoop jar 包

执行以下命令查看 HBase 的 /lib 目录下的 Hadoop jar 包:

ls -rtl /opt/module/hbase/lib/hadoop*

 

存在不一致则删除 HBase 的 Hadoop jar 包

执行以下命令,删除掉 HBase 下的所有 Hadoop 相关的 jar 包:

rm -rf /opt/module/hbase/lib/hadoop*.jar

拷贝 Hadoop 下的 jar 包到 HBase

执行以下命令,拷贝所有 Hadoop 2.10.1 版本下的 jar 包到 HBase 下进行版本统一:

 

find /opt/hadoop/share/hadoop/ -name "hadoop*jar" | xargs -i cp {} /opt/module/hbase/lib/

8、软连接Hadoop配置文件到hbase

ln -s /opt/hadoop/etc/hadoop/core-site.xml /opt/module/hbase/conf/core-site.xml
ln -s /opt/hadoop/etc/hadoop/hdfs-site.xml /opt/module/hbase/conf/hdfs-site.xml

9、切换到bin目录下启动

(首先保证Hadoop和zookeeper启动)

./hbase-daemon.sh start master

./hbase-daemon.sh start regionserver

9、本机输入地址访问

http://192.168.10.100:16010/

Hadoop访问地址刷新显示hbase

碰到的问题:

1、Hadoop以前访问正常,突然不能访问:关闭防火墙systemctl  stop   firewalld.service 

2、本机访问不了hbase,拒绝连接,通过查看log下的日志问题,报错为Call From localhost.localdomain/127.0.0.1 to 192.168.10.100:9000 failed on connection exception: ja

日志查看命令:tail -n 200 hbase-root-master-localhost.localdomain.log

解决参考方式: 连接hadoop报错:Call From xxxx/169.254.17.210 to 192.168.10.10:9000 failed on connection exception: - 知乎netstat -tlpn

core-site.xml文件中,开放9000端口,之后重启hadoop再查看端口信息,然后再把软引用删除,重新创建软引用,然后重启zookeeper,重启hbase。(原来配置的是localhost)

<!-- 指定NameNode的地址 -->   
 <property>
        <name>fs.defaultFS</name>
        <value>hdfs://0.0.0.0:9000</value>
</property>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值