大数据集群配置-hbase

该博客详细介绍了如何在CentOS7.4环境下配置和启动HBase 1.2.1和Hadoop 2.7.1的集群。首先,博主解压缩并移动了HBase、Hadoop和Zookeeper的安装包。接着,配置了HBase的环境变量、Hadoop的相关文件,并创建了必要的目录。然后,通过scp命令将配置分发到所有节点,并更新了环境变量。最后,博主同步了系统时间,并依次启动了Zookeeper、Hadoop和HBase服务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

hbase配置

软件名称软件包名
zookeeperzookeeper-3.4.8.tar.gz
hbasehbase-1.2.1-bin.tar.gz
hadoophadoop-2.7.1.tar.gz
CentOSCentOS 7.4(mini 英文版本)

1.解压

tar -zxvf /opt/software/hbase-1.2.1-bin.tar.gz -C /usr/local/src/
cd /usr/local/src
mv hbase-1.2.1/ hbase

2.配置

vi /usr/local/src/hbase/conf/hbase-env.sh
export JAVA_HOME=/usr/local/src/java
export HADOOP_HOME=/usr/local/src/hadoop
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export HBASE_MANAGES_ZK=false
export HBASE_LOG_DIR=/usr/local/src/hbase/logs
export HBASE_PID_DIR=/usr/local/src/hbase/pid
mkdir /usr/local/src/hbase/{logs,pid}
#hbase 需要ha的core-site.xml 和 hdfs-site.xml文件
#文件在当前文件夹里面
cp /usr/local/src/hadoop/etc/hadoop/core-site.xml  /usr/local/src/hbase/conf
cp /usr/local/src/hadoop/etc/hadoop/hdfs-site.xml  /usr/local/src/hbase/conf

vi /usr/local/src/hbase/conf/hbase-site.xml
<configuration>
	  <property>
                <name>hbase.rootdir</name>
                <value>hdfs://master:8020/hbase</value>
        </property>
	<property>
		<name>hbase.tmp.dir</name>
		<value>/usr/local/src/hbase/tmp</value>
	</property>
	<property>
		<name>hbase.master.info.port</name>
		<value>16010</value>
	</property>
	<property>
		<name>hbase.zookeeper.property.clientPort</name>
		<value>2181</value>
	</property>
        <property>
                <name>hbase.zookeeper.quorum</name>
                <value>master:2181,slave1:2181,slave2:2181</value>
        </property>
	<property>
		<name>hbase.cluster.distributed</name>
		<value>true</value>
	</property>
	<property>
		<name>hbase.zookeeper.property.dataDir</name>
		<value>/usr/local/src/hbase/tmp/zookeeper-hbase</value>
	</property>
</configuration>
vi /usr/local/src/hbase/conf/regionservers
slave1
slave2
vi /etc/profile
export HBASE_HOME=/usr/local/src/hbase
export PATH=$PATH:$HBASE_HOME/bin

3.分发

# master
chown -R root:root /usr/local/src/hbase
scp -r /usr/local/src/hbase slave1:/usr/local/src
scp -r /usr/local/src/hbase slave2:/usr/local/src
scp /etc/profile slave1:/etc
scp /etc/profile slave2:/etc
source /etc/profile
#slave1
source /etc/profile
#slave2
source /etc/profile

4.启动

# 同步时间
ntpdate cn.pool.ntp.org
#上面如果因为没网不能成功的话执行下面命令: 时间随便填,只要三台一样就行
#master slave1 slave2 三台同步执行,一定要一起执行,三台时间间隔越小越好
date -s "20220517 11:31:01"

# 启动zookeeper
# master
zkServer.sh start

# slave1
zkServer.sh start

# slave2
zkServer.sh start

#启动hadoop
#master
start-all.sh

#启动hbase
#master
start-hbase.sh

5.查看

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

厨 神

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值