前言:由于之前使用apache hadoop总是出一些问题。
所以我重新安装hadoop,选择的是CDH版hadoop :hadoop-0.20.2-cdh3u6.tar.gz,结果也能正常启动,记录在这篇文章内:
http://blog.youkuaiyun.com/huoyunshen88/article/details/8955430
CDH版hadoop 可以参照如上配置,保证能够正常启动,hdfs 报告正常。
所以hbase版本的选择也是CDH版 :hbase-0.90.6-cdh3u6.tar.gz。
安装步骤:
1.cp hbase tar包到安装目录下,解压,所有节点的目录结构一致,这是hadoop集群的要求。
2.修改hbase-env.sh
找到配置文件注释的这行# export JAVA_HOME=/usr/java/jdk1.6.0/,在下面添加jdk环境变量
export JAVA_HOME=/usr/java/jdk1.7.0_09/
3.修改hbase conf下的配置文件。
找到如下两行
<configuration>
</configuration>
修改为如下:
注意事项:roodir目录是基于hdfs的,
使用如下命令建立和查看。
#创建目录hdfs://master:9000/opt/hbase/hbasedata
#验证/opt/hbase/hbasedata目录创建成功
4.修改hbase conf目录下 regionservers文件,和与hadoop的slave文件相同
添加hadoop slave中的数据节点信息:
5.讲安装配置好的hbase目录复制到如上配置的两个节点中.
6.修改环境变量.
[root@master hbase]# vi /etc/profile 注意使用root用户
按shift + g 跳到文件末尾,在文件末尾添加如下信息:
7.启动hbase集群。
启动的顺序一般是hadoop -> zookeeper -> hbase,停止顺序相反!
master上的进程:
slave的进程
8.执行hbsae shell命令,进入hbase控制台
9.输入list命令,如果正常执行,表示hbase启动成功
遇到的问题:
ERROR org.apache.hadoop.hbase.HServerAddress: Could not resolve the DNS name of master:hdfs://10.132.30.48
参考文章:
http://blog.youkuaiyun.com/dajuezhao/article/details/5717541
http://blog.youkuaiyun.com/huoyunshen88/article/details/8955430
所以我重新安装hadoop,选择的是CDH版hadoop :hadoop-0.20.2-cdh3u6.tar.gz,结果也能正常启动,记录在这篇文章内:
http://blog.youkuaiyun.com/huoyunshen88/article/details/8955430
CDH版hadoop 可以参照如上配置,保证能够正常启动,hdfs 报告正常。
所以hbase版本的选择也是CDH版 :hbase-0.90.6-cdh3u6.tar.gz。
安装步骤:
1.cp hbase tar包到安装目录下,解压,所有节点的目录结构一致,这是hadoop集群的要求。
[hadoop@master software]$cd /opt/hbase/hbase-0.90.6-cdh3u6/
2.修改hbase-env.sh
[hadoop@master software]$ vi /opt/hbase/hbase-0.90.6-cdh3u6/conf/hbase-env.sh
找到配置文件注释的这行# export JAVA_HOME=/usr/java/jdk1.6.0/,在下面添加jdk环境变量
export JAVA_HOME=/usr/java/jdk1.7.0_09/
3.修改hbase conf下的配置文件。
[hadoop@master software]$ vi /opt/hbase/hbase-0.90.6-cdh3u6/conf/hbase-site.xml
找到如下两行
<configuration>
</configuration>
修改为如下:
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://10.132.30.48:9000/opt/hbase/hbasedata</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master.port</name>
<value>hdfs://10.132.30.48:60000</value>
</property>
http://blog.youkuaiyun.com/dajuezhao/article/details/5717541
<property>
<name>hbase.zookeeper.quorum</name>
<value>slave1,slave3</value>
</property>
</configuration>
注意事项:roodir目录是基于hdfs的,
使用如下命令建立和查看。
#创建目录hdfs://master:9000/opt/hbase/hbasedata
[hadoop@master bin]$ hadoop fs -mkdir /opt/hbase/hbasedata
#验证/opt/hbase/hbasedata目录创建成功
[hadoop@master bin]$ hadoop fs -lsr /opt/hbase/
4.修改hbase conf目录下 regionservers文件,和与hadoop的slave文件相同
[hadoop@master software]$ vi /opt/hbase/hbase-0.90.6-cdh3u6/conf/regionservers
添加hadoop slave中的数据节点信息:
10.132.30.249 #slave1
10.132.30.251 #slave3
5.讲安装配置好的hbase目录复制到如上配置的两个节点中.
scp -r hbase-0.90.6-cdh3u6/ slave1:/opt/hbase/
scp -r hbase-0.90.6-cdh3u6/ slave3:/opt/hbase/
6.修改环境变量.
[root@master hbase]# vi /etc/profile 注意使用root用户
按shift + g 跳到文件末尾,在文件末尾添加如下信息:
export HBASE_HOME=/opt/hbase/hbase-0.90.6-cdh3u6/
export PATH=$PATH:$HBASE_HOME/bin
远程拷贝到其他节点
scp /etc/profile slave1:/etc/
scp /etc/profile slave3:/etc/
[root@master hbase]#source /etc/profile,使之生效。
7.启动hbase集群。
启动的顺序一般是hadoop -> zookeeper -> hbase,停止顺序相反!
[hadoop@master hbase]$ ./hbase-0.90.6-cdh3u6/bin/start-hbase.sh
master上的进程:
[hadoop@master bin]$ jps
12881 NameNode
13118 JobTracker
18033 HMaster
18108 Jps
13046 SecondaryNameNode
slave的进程
[hadoop@slave1 ~]$ jps
21685 HRegionServer
21608 HQuorumPeer
19581 DataNode
21748 Jps
19679 TaskTracker
8.执行hbsae shell命令,进入hbase控制台
[hadoop@master hbase]$ hbase shell
HBase Shell; enter 'help<RETURN>' for list of supported commands.
Type "exit<RETURN>" to leave the HBase Shell
Version 0.90.6-cdh3u6, r, Wed Mar 20 12:02:52 PDT 2013
hbase(main):001:0>
9.输入list命令,如果正常执行,表示hbase启动成功
遇到的问题:
ERROR org.apache.hadoop.hbase.HServerAddress: Could not resolve the DNS name of master:hdfs://10.132.30.48
参考文章:
http://blog.youkuaiyun.com/dajuezhao/article/details/5717541
http://blog.youkuaiyun.com/huoyunshen88/article/details/8955430
本文详细介绍了如何使用CDH版的Hadoop和HBase进行集群搭建的过程,包括安装步骤、配置细节及解决问题的方法。通过遵循文中提供的指导,读者可以顺利部署并运行Hadoop和HBase集群。
282

被折叠的 条评论
为什么被折叠?



