hadoop卸载及扩容

本文详细介绍了如何卸载Hadoop集群,并进行扩容操作。卸载过程包括格式化数据盘、复制SSH配置以及更新节点列表。扩容步骤涉及在新节点上创建HDFS和YARN的相关目录并调整权限。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

------------------------------------------------------------------------------卸载---------------------------------------------------------------------------------------------------------

待卸载节点

bis-newdatawork-s2c-120   10.10.10.180
bis-newdatawork-s2c-121   10.10.10.181
bis-newdatawork-s2c-122   10.10.10.182
bis-newdatawork-s2c-123   10.10.10.183
bis-newdatawork-s2c-124   10.10.10.184
卸载DataNode节点:
    ha模式需要先停掉备用NN
    hadoop-daemon.sh stop namenode
一次卸载一个节点
-----卸载datanode
1)要在HDFS主节点NameNode上,进行配置。
a)在etc/hadoop/hdfs-site.xml中,设置属性值:
dfs.hosts.exclude
/home/hadoop/hadoop-2.2.0/etc/hadoop/exclude
b)创建文件并在文件中加入卸载节点的IP地址或者主机名。
2)在NameNode节点上刷新集群
bin/hdfs dfsadmin -refreshNodes
3)卸载过程。
卸载过程中可以启用停掉的备用namenode
hadoop-daemon.sh start namenode
通过命令来查看卸载情况。
bin/hdfs dfsadmin -report
4) 在卸载机器上关闭DataNode进程
ssh bis-newdatawork-s2c-120
hadoop-daemon.sh stop datanode
5)将 exclude 文件内容清空
状态由 Decommission in progress 变成 Decommissioned 后,将文件 exclude 清空
> exclude
-----卸载 nodemanager
在卸载NodeManager时,一定要主要配置在ResourceManager上。
1)在etc/hadoop/yarn-site.xml中,设置属性值:
<property>
    <name>yarn.resourcemanager.nodes.exclude-path</name>
    <value>/home/hadoop/hadoop-2.2.0/etc/hadoop/yarn-hosts.exclude</value>
</property>
创建文件yarn-hosts.exclude并在文件中加入卸载节点的IP地址或者主机名。
bis-newdatawork-s2c-120
2)在RM中刷新节点
yarn rmadmin -refreshNodes
3)登录到RM监控界面可以看到该节点被移除
4)清空文件yarn-hosts.exclude
> yarn-hosts.exclude
-----最后删除slaves文件中的卸载节点,并同步到snn节点
scp /home/hadoop/hadoop-2.2.0/etc/hadoop/slaves bis-newdatanode-s2c-90:/home/hadoop/hadoop-2.2.0/etc/hadoop/
----停掉卸载节点上其他进程
如停spark:./stop-slave.sh
并删除spark配置文件slaves中的卸载节点。
----清数据

格式化数据盘:

umount /data
mkfs -t ext4 /dev/mapper/datavg-datalv
mount /dev/mapper/datavg-datalv /data -o noatime,defaults

清根目录:
rm -rf /home/hadoop/hadoop-2.2.0
rm -rf /home/hadoop/slaves
rm -rf /home/hadoop/spark-1.6.1-bin-2.2.0
------------------------------------------------------------------------------扩容---------------------------------------------------------------------------------------------------------
增加新机器,DataNode(存储数据)和NodeManager(计算)
bis-newdatawork-s2c-120   10.10.10.180
bis-newdatawork-s2c-121   10.10.10.181
bis-newdatawork-s2c-122   10.10.10.182
bis-newdatawork-s2c-123   10.10.10.183
bis-newdatawork-s2c-124   10.10.10.184
1)系统、主机名、IP地址、防火墙、SELinux等与集群的从节点基本配置保持一致。
OK
2)安装JDK(版本、路径、环境变量保持一致)。
OK
3)配置主节点(HDFS:NameNode;YARN:ResourceManager)所在机器到新机器的SSH无密钥登录(方便集群的启动)。

scp -r .ssh hadoop@bis-newdatawork-s2c-120:~/

ssh bis-newdatawork-s2c-121 "cat /home/hadoop/id_dsa.pub >>/home/hadoop/.ssh/authorized_keys"

4)配置修改etc/hadoop/slaves文件(只需要在ANN+SNN上修改)。
5)分发hadoop安装包(配置完成)到新机器上。
scp -r hadoop-2.2.0 bis-newdatawork-s2c-120:~/

6)创建HDFS、YARN在新机器的本地磁盘上一些文件夹。

mkdir -p /data/hadoop/dfs/data
chown -R hadoop.hadoop /data/hadoop

7)在新机器上启动DataNode和NodeManager节点。
hadoop-daemon.sh start datanode
yarn-daemon.sh start nodemanager

8) 更新ANN+SNN上的/etc/hadoop/slaves

//对hdfs负载设置均衡,因为默认的数据传输带宽比较低,可以设置为64M
hdfs dfsadmin -setBalancerBandWidth 67108864

//默认balancer的threshold为10%,即各个节点与集群总的存储使用率相差不超过10%,我们可将其设置为5%
start-balancer.sh -threshold 5
### 如何在 Windows 系统上完全卸载 Hadoop 对于 Windows 上的 Hadoop 卸载过程,尽管官方文档更多聚焦于 Linux 平台上的操作,但可以借鉴一些通用原则来完成这一任务。需要注意的是,在 Windows 中通常通过 Cygwin 或者 WSL (Windows Subsystem for Linux) 来运行 Hadoop。 #### 1. 停止所有与 Hadoop 相关的服务 确保所有的 Hadoop 服务都已经停止。如果是在命令行下启动的服务,则可以通过关闭这些窗口或者使用 `taskkill` 命令终止相应的 Java 进程[^4]: ```powershell Get-Process -Name java | Stop-Process -Force ``` #### 2. 删除 Hadoop 安装目录及其子文件夹 移除整个 Hadoop 的安装路径下的所有内容。假设 Hadoop 被安装到了 C:\hadoop 文件夹内: ```batch rmdir /S /Q C:\hadoop ``` #### 3. 清理环境变量设置 检查并清除任何指向已删除 Hadoop 版本的位置的 PATH 变量或其他自定义环境变量。这可以在系统的高级系统设置中的“环境变量”选项里找到。 #### 4. 移除配置文件和个人数据存储位置 除了主要的应用程序本身外,还需要关注那些可能存在于用户主目录或者其他地方的数据仓库和日志记录区域。例如,默认情况下可能会存在如下几个重要位置需要清理: - `%USERPROFILE%\.ssh\known_hosts`: 如果曾经连接过远程节点的话。 - `%APPDATA%\Roaming\Hadoop`: 存储本地缓存和其他临时资源的地方。 - 数据库:如果有使用 MySQL 或其他关系型数据库作为元数据管理工具,也需要按照相应指南彻底移除它们[^3]。 #### 5. 使用第三方工具辅助清理注册表项及其他潜在残留物 最后一步是利用像 CCleaner 这样的应用程序帮助扫描并安全地去除任何剩余的注册表条目以及其他不易察觉的小部件。 ```batch ccleaner.exe /AUTO ``` 以上步骤能够有效地从 Windows 操作系统中移除 Hadoop 及其关联组件,并确保不会留下不必要的痕迹影响后续的操作或新版本的部署。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值