HADOOP/HBase动态新增节点

1. 检查JDK版本是否相同并拷贝JDK,并配置/etc/profile文件的JAVA_HOME和CLASSPATH属性

2. 配置/etc/hosts文件,新增新加机器的计算机名,包括原有机器和新增机器都要修改该文件

3. 拷贝hadoop-2.6.0和hbase-1.0.1.1,并把hadoop-2.6.0和hbase-1.0.1.1文件夹的文件所有者和文件所属组改成hadoop

4. 配置Master到Slave的无密码登录

5. 设置机器句柄数,修改/etc/security/limits.conf,详见http://beyond3518.blog.51cto.com/1360525/1764190

6. 安装snappy

    6.1 安装软件: Gcc c++, autoconf, automake, libtool, Java 6, JAVA_HOME set, Maven 3, glibc

           安装方法 : yum install xxx

    6.2 安装glibc方法 : 

            6.2.1 到192.168.9.110的/data/server/glibc-2.14.tar.gz拷贝文件,把该文件拷贝到/usr/local目录下

            6.2.2 进入/usr/local目录下, cd /usr/local

            6.2.3 解压glibc-2.14.tar.gz,  tar -zxvf glibc-2.14.tar.gz

            6.2.4 新建目录/usr/local/glibc, mkdir /usr/local/glibc

            6.2.5 进入/usr/local/glibc目录, cd /usr/local/glibc

            6.2.6 运行命令 export CFLAGS="-g -O2"

            6.2.7 运行命令 /usr/local/glibc-2.14/configure --prefix=/usr --disable-profile --enable-add-ons --with-headers=/usr/include --with-binutils=/usr/bin

            6.2.8 运行命令 make

            6.2.9 运行命令 make install

            6.2.10 验证是否安装成功 : 

                        运行命令 : ll /lib64/libc.so.6 , 如果显示结果 /lib64/libc.so.6 -> libc-2.14.so , 则安装成功

 

7. 修改hadoop的slaves配置文件,添加新增节点,并把该配置文件发送到所有其他节点上去

8. 添加Datanode

对于新添加的Datanode节点,需要启动datanode进程,从而将其添加到集群

    8.1 在新增的节点上,运行sbin/hadoop-daemon.sh start datanode即可

    8.2 然后在namenode通过hdfs dfsadmin -report查看集群情况

    8.3 最后还需要对hdfs负载设置均衡,因为默认的数据传输带宽比较低,可以设置为64M,即hdfs dfsadmin -setBalancerBandwidth 67108864即可

    8.4 默认balancer的threshold为10%,即各个节点与集群总的存储使用率相差不超过10%,我们可将其设置为5%

    8.5 然后启动Balancer,sbin/start-balancer.sh -threshold 5,等待集群自均衡完成即可

9. 添加Nodemanager

由于Hadoop 2.X引入了YARN框架,所以对于每个计算节点都可以通过NodeManager进行管理,同理启动NodeManager进程后,即可将其加入集群

    9.1 在新增节点,运行sbin/yarn-daemon.sh start nodemanager即可

    9.2 在ResourceManager,通过yarn node -list查看集群情况

10. 修改hbase的regionservers配置文件,添加新增节点.并把该配置文件发送到所有其他节点

11. 在新增的节点上,启动regionserver. 运行hbase-daemon.sh start regionserver即可

 

12. 修改InputService/StoreService服务器的/etc/hosts文件,添加新节点的域名

 

### HBase动态增删 HDFS 节点配置方法 在分布式环境中,HBase 的数据存储依赖于 HDFS。因此,在 HBase 中实现动态增删 HDFS 节点的操作实际上是对 HDFS 集群的调整。以下是具体的配置方法: #### 1. 修改 `hdfs-site.xml` 文件 编辑 HDFS 的核心配置文件 `hdfs-site.xml`,指定排除节点的路径。 ```xml <property> <name>dfs.hosts.exclude</name> <value>/usr/hadoop/hadoop-2.7.3/etc/hadoop/excludes</value> </property> ``` 此操作定义了一个名为 `excludes` 的文件位置,用于记录需要移除的节点[^1]。 #### 2. 创建并更新 `excludes` 文件 创建一个名为 `excludes` 的文件,并将不需要参与集群的节点名称写入其中。例如,如果要删除节点 `slave2`,则可以在该文件中添加如下内容: ``` slave2 ``` 保存文件后,通知 NameNode 更新其状态。 #### 3. 刷新 NameNode 排除列表 执行以下命令刷新 NameNode 的排除列表,使更改生效。 ```bash hdfs dfsadmin -refreshNodes ``` 这一步会告知 NameNode 哪些节点已被标记为不可用,并停止向这些节点分配新的任务或数据块。 #### 4. 添加新节点到 HDFS 集群 当需要新增节点时,需先确保目标机器已安装相同版本的 Hadoop 并完成基础环境配置。随后按照以下步骤操作: - **修改 `slaves` 文件** 将新节点主机名追加至 Hadoop 安装目录下的 `slaves` 文件中。 - **格式化 DataNode** 登录新节点并启动 DataNode 进程。首次运行前可能需要初始化磁盘空间。 - **同步配置文件** 使用工具(如 scp 或 ansible)将现有集群中的配置文件复制到新节点上。 - **重启服务** 启动新节点上的 DataNode 和 NodeManager 服务,并验证它是否成功连接到 NameNode。 #### 5. 在 HBase 上应用变更 由于 HBase 数据最终存储在 HDFS 上,所以只需关注 HDFS 层面的变化即可。不过为了安全起见,建议重新平衡 RegionServer 分布以及检查表元数据的一致性。 ```bash # 执行负载均衡 echo "balancer" | hbase shell ``` 通过以上方式可以有效管理 HDFS 节点数量变化带来的影响,从而间接支持 HBase 的扩展需求。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值