hadoop-2.2.0 升级 2.6.0
hadoop-2.2.0
准备
- 通过一次全面的fsck检查现有系统是否健康,并可记录下fsck的输出信息,用于升级后的对比。
./bin/hadoop fsck / -files -blocks -locations > dfs-v-old-fsck-1.log./bin/hadoop dfs -lsr / > dfs-v-old-lsr-1.log./bin/hadoop dfsadmin -report > dfs-v-old-report-1.log - 备份namenode信息,即
etc/hadoop/hdfs-site.xml下的dfs.namenode.name.dir所指向的文件夹 - 备份配置文件,即
etc/hadoop文件下的hadoop-env.sh,yarn-env.sh,core-site.xml,mapred-site.xml,hdfs-site.xml,yarn-site.xml。
升级
- 关闭集群
./sbin/stop-all.sh - 下载
hadoop-2.6.0,并解压到不同于hadoop-2.2.0的文件夹。 - 替换
etc/hadoop下的相关文件。 - 执行
./sbin/hadoop-daemon.sh start namenode -upgrade升级namenode。
可通过./bin/hadoop dfsadmin -upgradeProgress status来查看进度。 - 执行
./sbin/start-dfs.sh来启动HDFS。
回滚
-
./sbin/stop-all.sh关闭hadoop - 回到原有的hadoop文件夹
-
./bin/start-dfs.sh –rollback完成回滚
完成升级
- 在集群运行一段时间,且没有出现问题的情况下,执行
./bin/hadoop dfsadmin -finalizeUpgrade删除备份,完成升级。
本文详细介绍了如何从Hadoop 2.2.0升级至2.6.0的过程,包括准备阶段、升级步骤和回滚操作。通过执行全面的fsck检查、备份关键信息、关闭集群、下载并解压新版本、替换配置文件等步骤,确保升级过程顺利进行。同时提供了升级后的回滚方法,保障系统的稳定性和安全性。
3169

被折叠的 条评论
为什么被折叠?



