hbase1

1.hbase集群增加节点
假设新增节点ip为:192.168.1.10,slave2

1.修改/etc/hosts文件,在所有节点(除新加节点)上运行如下命令以追加新机器名与ip绑定到host文件
然后将hosts文件复制到slave2
echo ‘192.168.1.10’ slave2 >> /etc/hosts

2.修改…/hadoop-2.6.5/etc/hadoop/slaves文件,在所有节点上运行如下命令以追加新机器名
到slaves文件
echo ‘slave2’ >> …/hadoop-2.6.5/etc/hadoop/slaves(具体路径,这里是略写)

3.刷新集群节点,在主节点运行
…/hadoop-2.6.5/etc/hadoop/slaves dfsadmin -refershNodes

4.启动slave2,在slave2上运行
…/hadoop-2.6.5/etc/sbin/hadoop-daemon.sh start datanode

5.运行负载均衡,参数设置为5
…/hadoop-2.6.5/etc/bin/hdfs balancer -threshold 5

6.增加hbase分区服务器,在除新加节点外所有节点上运行如下命令以将新节点加入hbase分区服务列表
echo ‘slave2’ >> …/hbase-1.2.6/conf/regionservers

7.启动hbase分区服务器,在slave2上运行
…/hbase-1.2.6/bin/hbase-daemon.sh start regionserver

1.hbase集群删除节点

1.下线hbase分区服务器,在slave2上执行,该节点下线过程中,会将数据都转移到集群中其他在线的
节点上
…/hbase-1.2.6/bin/graceful_stop.sh slave2

2.hadoop配置数据节点下线,在…/hadoop-2.6.5/etc/hadoop/hdfs-site.xml中配置,注意:slaves
文件之前已经存在,只需新建exclude-slaves文件,然后在该文件中添加一行内容slave2,表示将
slave2节点排除

dfs.hosts
…/hadoop-2.6.5/etc/hadoop/slaves

dfs.hosts.exclude ../hadoop-2.6.5/etc/hadoop/exclude-slaves

3.下线hadoop数据节点,执行刷新命令
…/hadoop-2.6.5/bin/hadoop dfsadmin -refreshNodes

4.执行 hadoop dfsadmin -report 或者用浏览器 50070 端口,可以看到执行过程

5.清理slave2,将slaves与exclude-slaves文件中slave2这行数据删除,然后执行刷新hadoop节点命令
至此slave2已经下线成功了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值