1.前期准备:
(1)最好先把hadoop三件套做好,具体可以参考我之前的一篇文章:
黑马程序员hadoop三件套(hdfs,Mapreduce,yarn)的安装配置以及hive的安装配置-优快云博客
(2)把zookeeper-3.4.6.tar.gz和hbase-2.5.10-bin.tar.gz提前下载好(使用ndm下载)
zookeeper-3.4.6.tar.gz下载链接:Index of /dist/zookeeper/zookeeper-3.4.6
hbase-2.5.10-bin.tar.gz下载链接:apache-hbase-2.5.10安装包下载_开源镜像站-阿里云
(3)ndm下载器下载方法:下载速度60M/s,直接跑满带宽!最新NDM中文绿色汉化版,内附详细安装使用教程,平替IDM下载器_哔哩哔哩_bilibili
里面讲的很详细。
2.配置zookeeper
(1)打开Finalshell,上传zookeeper-3.4.6.tar.gz安装包到 node2节点 的/export/server目录下
cd /export/server
rz
(2)解压缩zookeeper-3.4.6.tar.gz文件
tar -zxf zookeeper-3.4.6.tar.gz -C /export/server/
(3)进入/export/server/zookeeper-3.4.6/conf目录
cd /export/server/zookeeper-3.4.6/conf
(4)创建zoo.cfg
vim zoo.cfg
配置内容如下:
# 数据目录和日志目录
dataDir=/usr/lib/zookeeperData
dataLogDir=/var/log/zookeeperLog
# 客户端端口
clientPort=2181
# tickTime 为 Zookeeper 的心跳时间,单位毫秒
tickTime=2000
# 初始化连接的时间限制
initLimit=5
# 同步限制,单位是心跳数
syncLimit=2
# ZooKeeper 集群节点配置
server.1=192.168.88.102:2888:3888
server.2=192.168.88.103:2888:3888
(5)在node2,node3新建以下文件夹:
mkdir /usr/lib/zookeeperData
mkdir /var/log/zookeeperLog
在 node2的/usr/lib/zookeeperData目录下新建文件myid,内容为1
vi /usr/lib/zookeeperData/myid
在 node3的/usr/lib/zookeeperData目录下新建文件myid,内容为2
vi /usr/lib/zookeeperData/myid
(6)在node2节点
scp -r /export/server/zookeeper-3.4.6 node3:/export/server/
(7)在node2,node3的/etc/profile中配置环境变量,同时记得运行source /etc/profile使配置生效
vim /etc/profile
export ZK_HOME=/export/server/zookeeper-3.4.6
export PATH=$PATH:$ZK_HOME/bin
source /etc/profile
(8)启动node2,node3的Zookeeper
cd /export/server/zookeeper-3.4.6/bin
zkServer.sh start
(9)查看各个子节点的zookeeper是否启动
/export/server/zookeeper-3.4.6/bin/zkServer.sh status
3.配置Hbase(先在node1配置,之后会分发给node2,node3)
(1)通过rz上传hbase-2.5.10-bin.tar.gz压缩包到/export/server目录
cd /export/server
rz
(2)解压缩hbase-2.5.10.tar.gz 文件
tar -zxvf hbase-2.5.10-bin.tar.gz -C /export/server
(3)进入目录:cd /export/server/hbase-2.5.10/conf
(4)修改hbase-site.xml文件,内容如下:
把里面<configuration>
</configuration>原来的内容注释掉(最好别删除),然后把以下内容复制进去
<property>
<name>hbase.rootdir</name>
<value>hdfs://node1:8020/hbase</value>
</property>
<property>
<name>hbase.master</name>
<value>node1</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>node2,node3</value>
</property>
<property>
<name>zookeeper.session.timeout</name>
<value>60000000</value>
</property>
<property>
<name>dfs.support.append</name>
<value>true</value>
</property>
<property>
<name>hbase.master.maxclockskew</name>
<value>150000</value>
</property>
(5)配置hbase-env.sh,添加一些代码,内容如下:
export HBASE_CLASSPATH=/export/server/hadoop-3.3.4/etc/hadoop
export JAVA_HOME=/export/server/jdk1.8.0_212
export HBASE_MANAGES_ZK=false
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"
#上面export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true" 这一句不加会报错。
(6)配置regionservers,内容如下:
node2
node3
(7)拷贝到各子节点
scp -r /export/server/hbase-2.5.10/ node2:/export/server/
scp -r /export/server/hbase-2.5.10/ node3:/export/server/
(8)配置环境变量 进入/etc/profile 所有节点(node1,node2,node3)都要做
vim /etc/profile
export HBASE_HOME=/export/server/hbase-2.5.10
export PATH=$PATH:$HBASE_HOME/bin
source /etc/profile
运行source /etc/profile使配置生效
(9)运行 hbase
首先确保启动了zookeeper和Hadoop集群
进入目录
cd /export/server/hbase-2.5.10/bin/
运行
./start-hbase.sh
(10)在浏览器查看
http://192.168.88.101:16010
4.参考文章:
hbase 和Hadoop的国内下载镜像_hbase国内镜像下载-优快云博客
Hadoop Hbase Hive 版本对照一览_hadoop和hbase对应-优快云博客
Hbase正常启动,执行命令报错 Server is not running yet-优快云博客
5.总结
至此,本文已接近尾声,衷心感谢您的阅读与关注。希望所分享的内容对您有所启发,期待未来能再次与您交流。