如何安装Hbase

集群环境:

192.168.11.12 作为hbase主master

192.168.11.14 作为hbase备用master

 

192.168.11.16作为zookeeperNode/HRegionsever

192.168.11.18作为zookeeperNode/HRegionsever

192.168.11.20作为zookeeperNode/HRegionsever

 

192.168.11.12——192.168.11.20是hdfs的datanode

Hdfs的namenode为192.168.11.8主机名为hadoopNN00

 

软件版本:

Hadoop-0.20.1-dev

Hbase-0.90.3

 

Hbase的安装是基于hdfs的,Hbase的配置主要涉及conf目录下的三个文件:hbase-env.sh,hbase-site.xml,regionserver。

Hbase-env.sh配置如下:

#必须配置的项目如下:

export JAVA_HOME=/root/jdk1.6.0_25

export HBASE_OPTS="-ea -XX:+UseConcMarkSweepGC-XX:+CMSIncrementalMode"

export HBASE_MANAGES_ZK=true

exportHBASE_CLASSPATH=/usr/local/hadoop-0.20.1-dev/conf

调优配置项如下:

# Extra Java CLASSPATH elements.  Optional.

# export HBASE_CLASSPATH=

 

# The maximum amount of heap to use, in MB. Defaultis 1000.

# export HBASE_HEAPSIZE=1000

 

# Extra Java runtime options.

# Below are what we set by default.  May only work with SUN JVM.

# For more on why as well as other possiblesettings,

# seehttp://wiki.apache.org/hadoop/PerformanceTuning

export HBASE_OPTS="-ea -XX:+UseConcMarkSweepGC-XX:+CMSIncrementalMode"

 

# Uncomment below to enable java garbage collectionlogging.

# export HBASE_OPTS="$HBASE_OPTS -verbose:gc-XX:+PrintGCDetails -XX:+PrintGCDateStamps-Xloggc:$HBASE_HOME/logs/gc-hbase.log"

 

# Uncomment and adjust to enable JMX exporting

# See jmxremote.password and jmxremote.access in$JRE_HOME/lib/management to configure remote password access.

# More details at:http://java.sun.com/javase/6/docs/technotes/guides/management/agent.html

#

# exportHBASE_JMX_BASE="-Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.authenticate=false"

# export HBASE_MASTER_OPTS="$HBASE_JMX_BASE-Dcom.sun.management.jmxremote.port=10101-javaagent:lib/HelloWorldAgent.jar"

# exportHBASE_REGIONSERVER_OPTS="$HBASE_JMX_BASE-Dcom.sun.management.jmxremote.port=10102"

# export HBASE_THRIFT_OPTS="$HBASE_JMX_BASE-Dcom.sun.management.jmxremote.port=10103"

# export HBASE_ZOOKEEPER_OPTS="$HBASE_JMX_BASE-Dcom.sun.management.jmxremote.port=10104"

 

# File naming hosts on which HRegionServers willrun.  $HBASE_HOME/conf/regionservers bydefault.

# exportHBASE_REGIONSERVERS=${HBASE_HOME}/conf/regionservers

 

# Extra ssh options. Empty by default.

# export HBASE_SSH_OPTS="-o ConnectTimeout=1 -oSendEnv=HBASE_CONF_DIR"

 

# Where log files are stored.  $HBASE_HOME/logs by default.

# export HBASE_LOG_DIR=${HBASE_HOME}/logs

 

# A string representing this instance of hbase.$USER by default.

# export HBASE_IDENT_STRING=$USER

 

# The scheduling priority for daemon processes.  See 'man nice'.

# export HBASE_NICENESS=10

 

# The directory where pid files are stored. /tmp bydefault.

# export HBASE_PID_DIR=/var/hadoop/pids

 

# Seconds to sleep between slave commands.  Unset by default.  This

# can be useful in large clusters, where, e.g.,slave rsyncs can

# otherwise arrive faster than the master canservice them.

# export HBASE_SLAVE_SLEEP=0.1

 

# Tell HBase whether it should manage it's owninstance of Zookeeper or not.

 exportHBASE_MANAGES_ZK=true

 exportHBASE_CLASSPATH=/usr/local/hadoop-0.20.1-dev/conf

 

 

hbase-site.xml配置如下:

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl"href="configuration.xsl"?>

<configuration>

<property>

<name>hbase.rootdir</name>

<value>hdfs://hadoopNN00:9000/hbase</value>

<description>The directory shared by regionservers.</description>

</property>

<property>

<name>hbase.master.port</name>

<value>60000</value>

</property>

<property>

<name>hbase.cluster.distributed</name>

<value>true</value>

</property>

<property>

<name>hbase.zookeeper.property.dataDir</name>

<value>/usr/local/hbase/zookeeper</value>

</property>

<property>

<name>hbase.zookeeper.property.clientPort</name>

<value>2181</value>

</property>

<property>

<name>hbase.zookeeper.quorum</name>

<value>192.168.11.16,192.168.11.18,192.168.11.20</value>

</property>

</configuration>

其中,hbase.rootdir这一项的配置必须与hdfs的fs.name.default项一致,还要为hbase指定根目录/hbase

<property>

<name>hbase.rootdir</name>

<value>hdfs://hadoopNN00:9000/hbase</value>

<description>The directory shared by regionservers.</description>

</property>

Regionserver的配置如下:

192.168.11.16

192.168.11.18

192.168.11.20

 

配置完毕后将hbase拷贝到各个机器中的相同目录下。

 

启动habse

在192.168.11.12上启动hbase集群:bin/start-hbase.sh,首先启动的是zookeeper,再是master,最后是HRegionserver


### 在Hadoop上安装和配置HBase #### 确保Hadoop已正确安装和配置 为了使HBase能够正常工作,必须先确认Hadoop已经成功安装并运行。以下是验证步骤: 1. **启动Hadoop集群** 使用命令 `start-dfs.sh` 和 `start-yarn.sh` 来启动Hadoop服务[^1]。 2. **查看Hadoop版本** 执行以下命令来检查当前Hadoop的版本号,并确保其与计划使用的HBase版本兼容: ```bash hadoop version ``` #### 安装HBase 完成上述准备工作后,可以继续进行HBase安装过程。 1. **下载HBase软件包** 前往Apache官网或其他可信源下载适合的HBase版本(例如HBase-2.4.14)。可以通过wget工具获取文件: ```bash wget https://archive.apache.org/dist/hbase/2.4.14/hbase-2.4.14-bin.tar.gz ``` 2. **解压并重命名** 将压缩包解压到目标路径,并将其命名为便于识别的形式: ```bash tar -zxvf hbase-2.4.14-bin.tar.gz -C /usr/local/ mv /usr/local/hbase-2.4.14 /usr/local/hbase ``` 3. **设置环境变量** 修改用户的 `.bashrc` 文件以添加HBase的相关路径: ```bash export HBASE_HOME=/usr/local/hbase export PATH=$PATH:$HBASE_HOME/bin source ~/.bashrc ``` 4. **调整权限** 更改HBase目录的所有者以及访问权限以便于后续操作: ```bash chown -R hadoop:hadoop /usr/local/hbase/ chmod 777 /usr/local/hbase/ ``` 5. **测试安装是否成功** 运行如下命令检验HBase是否被正确部署: ```bash hbase version ``` #### 配置HBase伪分布式模式 为了让HBase能够在单节点环境中模拟分布式行为,需执行以下配置更改。 1. **编辑hbase-env.sh** 设置Java环境以及其他必要的参数,在 `/usr/local/hbase/conf/hbase-env.sh` 中加入以下内容: ```bash export JAVA_HOME=/path/to/java export HBASE_MANAGES_ZK=true ``` 2. **修改hbase-site.xml** 更新核心站点配置文件 `/usr/local/hbase/conf/hbase-site.xml` ,定义存储位置和其他选项: ```xml <configuration> <property> <name>hbase.rootdir</name> <value>hdfs://localhost:9000/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> </configuration> ``` 3. **启动HBase服务** 利用内置脚本开启Master及RegionServer进程: ```bash start-hbase.sh ``` 通过以上流程即可实现HBase在基于Hadoop平台上的初步搭建与调试[^2]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值