从 Yarn 回滚到 Hadoop 1.x

本文档详细介绍了如何从Yarn回滚到Hadoop1.x的步骤,包括确保未执行过finalizeUpgrade操作、设置Hadoop1.x环境变量、调整dfs.data.dir权限及执行回滚命令。

上一篇博客介绍了如何从Hadoop 1.x升级到Yarn ,而这篇博客将介绍如何从从 Yarn 回滚到 Hadoop 1.x。以下是主要步骤。

1、首先,能够回滚的前提是之前upgrade后没有执行过finalizeUpgrade的操作,否则将会导致回滚失败、NameNode不能正常启动:


2、设置、启用Hadoop 1.x的环境变量

3、更改‘dfs.data.dir’目录的权限

Hadoop 2.x 与 Hadoop 1.x 对 dfs.data.dir 目录的权限设定不一样,因此回滚回Hadoop 1.x前,需要把dfs.data.dir 目录的权限改回为755,否则会报错:

4、执行命令“start-dfs.sh -rollback”

这样cluster就成功回滚到Hadoop 1.x了。




<think>好的,用户现在的问题是询问如何在Hadoop 3.3.0中备份配置文件并删除旧绑定的具体步骤和注意事项。我需要结合用户提供的引用内容和之前的对话历史来给出准确的回答。 首先,回顾之前的对话,用户之前询问的是如何备份并删除Hadoop中的旧绑定文件slf4j-log4j12-1.7.25.jar,我给出了详细的步骤,包括定位文件、创建备份目录、执行备份操作、验证完整性以及恢复方法。现在用户的新问题涉及到配置文件的备份和旧绑定的删除,需要将这两个操作结合起来。 接下来,用户提供的引用内容中,引用[1]提到了Hive的配置文件hive-env.sh和hive-site.xml的设置,涉及Hadoop的环境变量配置。引用[2]则展示了使用curl下载Hadoop安装包和其他文件的操作,这可能与备份时的文件传输相关,但用户的问题是关于配置文件的备份,所以可能需要参考之前的备份步骤。 用户的需求是明确的:备份Hadoop 3.3.0的配置文件并删除旧绑定。需要分步骤说明,同时注意事项部分需要涵盖权限、验证、版本控制等。可能需要注意的要点包括: 1. 配置文件的常见位置:根据之前的回答,Hadoop的配置文件通常在安装目录下的etc/hadoop子目录中,比如/export/server/hadoop-3.3.0/etc/hadoop,用户提供的引用[1]中也提到了类似路径。 2. 备份方法:可以使用cp命令备份整个目录,或者使用tar打包,确保保留文件权限和时间戳。可能需要使用sudo权限,特别是如果配置文件位于系统目录下。 3. 删除旧绑定:之前的回答中提到了删除slf4j-log4j12的jar包,用户可能需要类似的操作,但这次是删除其他旧绑定,需要确认具体文件名和路径。 4. 验证步骤:备份后检查文件完整性,删除后测试Hadoop功能是否正常,如hdfs命令、yarn等。 5. 注意事项:包括权限保留、回滚计划、版本控制、集群同步(如果是多节点环境)等。 现在需要将这些步骤整合成一个清晰的指南。可能需要参考用户提供的引用中的路径,例如HIVE_CONF_DIR和HADOOP_HOME的位置,确保备份路径正确。 同时,用户提到的删除旧绑定可能指的是之前提到的slf4j-log4j12的jar文件,或者是其他需要替换的依赖项。需要明确删除的具体文件,并确保在删除前已经正确备份,避免系统无法启动。 在注意事项部分,需要强调备份的重要性,尤其是在生产环境中,操作前进行测试,以及多节点环境的同步问题。可能还需要提到使用版本控制工具管理配置变更,方便回滚。 最后,用户可能希望了解如何自动化备份和删除过程,或者如何验证操作后的系统状态,这些都需要在回答中涵盖。此外,相关问题部分可以包括自动化脚本编写、多节点配置管理、日志分析等,帮助用户进一步学习。</think>--- ### **Hadoop 3.3.0 配置文件备份与旧绑定删除操作指南** --- #### **一、配置文件备份步骤** **1. 定位核心配置文件** Hadoop 3.3.0 主配置目录(根据引用[1]的路径示例): ```bash /export/server/hadoop-3.3.0/etc/hadoop/ ``` 关键配置文件: - `core-site.xml`(HDFS配置) - `hdfs-site.xml`(HDFS存储策略) - `yarn-site.xml`(资源管理) - `mapred-site.xml`(MapReduce配置) - `hadoop-env.sh`(环境变量) **2. 创建备份目录** 建议使用带时间戳的备份目录: ```bash mkdir -p ~/hadoop_config_backup/$(date +%Y%m%d) ``` **3. 执行备份操作** 使用`rsync`保持文件属性(需sudo权限): ```bash sudo rsync -avz --delete \ /export/server/hadoop-3.3.0/etc/hadoop/ \ ~/hadoop_config_backup/$(date +%Y%m%d)/ ``` 或使用`tar`打包压缩: ```bash sudo tar -czvf hadoop_config_$(date +%Y%m%d).tar.gz \ -C /export/server/hadoop-3.3.0/etc/hadoop . ``` --- #### **二、删除旧绑定操作** **1. 定位旧绑定文件** 常见冲突绑定文件(根据引用[1][3]示例): ```bash # SLF4J绑定冲突文件 /usr/local/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar # Hive相关旧绑定(参考引用[1]路径) /export/server/apache-hive-3.1.2-bin/lib/obsolete-lib.jar ``` **2. 安全删除流程** ```bash # 1. 备份旧文件 sudo cp -p /path/to/old-binding.jar ~/hadoop_lib_backup/ # 2. 验证新版本存在性(例如使用slf4j-api-2.x.x.jar) ls /usr/local/hadoop/share/hadoop/common/lib/slf4j-api-* # 3. 删除旧绑定 sudo rm -f /path/to/old-binding.jar ``` --- #### **三、操作后验证** **1. 配置文件验证** ```bash # 检查备份文件完整性 diff -qr /export/server/hadoop-3.3.0/etc/hadoop/ \ ~/hadoop_config_backup/$(date +%Y%m%d) ``` **2. 功能测试** ```bash # HDFS基础操作 hdfs dfs -ls / hdfs dfsadmin -report # YARN服务状态 yarn node -list # MapReduce测试(引用[2]的curl示例可辅助验证) hadoop jar hadoop-mapreduce-examples-3.3.0.jar pi 10 100 ``` --- #### **四、关键注意事项** 1. **权限保留** - 使用`-p`参数保留文件属性(如`cp -p`) - 配置文件默认权限应为`644`,属主为`hadoop:hadoop`[^1] 2. **回滚预案** ```bash # 快速恢复配置文件 sudo tar -xzvf hadoop_config_20231001.tar.gz \ -C /export/server/hadoop-3.3.0/etc/hadoop/ ``` 3. **多节点同步** 在集群环境中需同步所有节点: ```bash # 使用pdsh同步配置(需提前安装) pdsh -w node[1-10] "sudo systemctl stop hadoop" pdsh -w node[1-10] "rsync -avz master:/backup/path /target/path" ``` 4. **版本控制建议** 推荐使用Git管理配置变更: ```bash cd /export/server/hadoop-3.3.0/etc/hadoop git init git add . git commit -m "Backup config before removing old bindings" ``` --- ### **操作流程图** ``` [定位配置文件] → [创建时间戳备份] → [rsync/tar备份] ↓ [定位旧绑定] → [备份jar文件] → [删除冲突库] ↓ [验证功能] → [多节点同步] → [提交版本控制] ``` --- ### **相关问题** 1. 如何通过Ansible自动化Hadoop集群配置管理? 2. 使用Zookeeper实现Hadoop配置中心化的方法? 3. Hadoop日志文件中常见的SLF4J冲突如何排查?
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值