Hdfs(NameNode&DataNode)和Hive迁移总结

本文详细介绍了如何进行HDFS的NameNode和DataNode以及Hive的迁移,包括准备工作,如创建用户、SSH配置和环境变量设置;HDFS的停服、文件复制与配置修改;Hive文件夹迁移及MySQL元数据备份恢复,同时解决迁移后的路径问题。通过这些步骤,确保了服务的顺利迁移。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在迁移hdfs和hive之前我首先想到的是,是不是可以直接拷贝文件夹呢?毕竟hdfs文件实际都是存储在设定的dir中,hive的元数据也都在mysql里头,备份再恢复一下简直是so easy啊!好吧,这篇文章就是用来填上这个想法背后的各种坑的,也顺便回顾一下部分相关环境配置的过程。

一、 准备工作

首先需要在新的虚拟机上完成运行hadoop的必备工作,以下操作主机和从机都要执行。

1. 创建hadoop用户及相关配置

使用root用户登录vm,或使用su切换到root,执行下述命令

useradd -m hadoop #新建hadoop账户
passwd hadoop  #设置密码
然后在/etc/sudoers中添加下面这句
%hadoop        ALL=(ALL)       NOPASSWD: ALL
使hadoop用户可以免密使用sudo命令提升权限,提示找不到sudo命令的话就使用yum install sudo来安装(centos中)。

2. SSH配置

为了让hadoop运行起来时不用频繁的输入密码,所以需要为主机和从机分别生成对称密钥,并添加到公钥名单中。

su - hadoop # 切换到hadoop账户并切换到其home目录
ssh-keygen -t dsa  #dsa生成方式安全性更高,选择默认的目录即可,如果要免密就不要填写密码短语
cat id_rsa.pub >> authorized_keys  # 将本机公钥写入公钥名单,hdfs启动时会ssh登录本机
sudo chmod 700 ~/.ssh    # 修改文件权限,否则免密无法生效
接下来使用下述命令将主机的公钥依次远程复制到从机的公钥名单中

                
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值