上一篇写了如何在腾讯云上安装部署 伪分布式 hadoop,今天给大家说说如何在腾讯云上安装部署伪分布式 hbase。
环境:
腾讯云——1G内存,20G硬盘,1M带宽
已经安装好hadoop(版本是2.6.5),jdk的安装路径是:/usr/local/jdk1.8.0_101
hbasehbase-1.1.9-bin.tar.gz(下载地址:http://mirrors.hust.edu.cn/apache/hbase/1.1.9/hbase-1.1.9-bin.tar.gz)
先在本地下载hbase-1.1.9-bin.tar.gz,再用xftp上传到Linux上的 /usr/local 目录下
以下所有操作都是root用户
安装部署hbase
1.进入 /usr/local 目录
# cd /usr/local
2.解压hbase-1.1.9-bin.tar.gz(解压后:hbase-1.1.9)
# tar -zxvf hbase-1.1.9-bin.tar.gz
3.配置hbase的环境变量
4.查看版本(有如下界面说明环境变量配置好了)
5.修改配置文件
进入 /usr/local/hbase-1.1.9/conf 目录,修改hbase-env.sh文件,hbase-site.xml 文件 ,regionservers文件
(1)hbase-env.sh文件:
配置JAVA_HOME=/usr/local/jdk1.8.0_101(你的jdk的安装路径)
使用的是hbase自带的zookeeper,所以要修改以下参数:
export HBASE_MANAGES_ZK=true
(2)hbase-site.xml 文件 :
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/Hbase/zookeeper</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!--
<property>
<name>zookeeper.znode.parent</name>
<value>/hbase-unsecure</value>
</property>
-->
<property>
<name>hbase.zookeeper.quorum</name>
<value>master</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>hbase.master</name>
<value>master:60000</value>
</property>
</configuration>
(3)regionservers文件:
说明:master是主机名
6.修改 /etc/hosts文件:
说明:119.29.167.178是公网ip
7.最好关掉防火墙:
# iptables -F
8.启动hbase:
# start-hbase.sh
9.如果出现下面这个情况,说明hadoop和hbase的slf4j-log4j12-1.7.5.jar包冲突,删除其中一个就好:
10.查看进程:
说明:先启动hadoop,在启动hbase
注意:
启动hadoop时:
把 /etc/hosts文件中的
127.0.0.1 master 注释
127.0.0.1 localhost 放开
启动hbase时
127.0.0.1 master 放开
127.0.0.1 localhost 注释
友情链接:hadoop在腾讯云上安装部署:
http://blog.youkuaiyun.com/smallpizza/article/details/70196872