hadoop 集群间数据迁移

本文详细介绍了如何修改HDFS路径为指定目录,并通过一系列步骤确保Hadoop集群内各节点间的高效数据迁移及元数据的正确写入。同时,文章强调了在配置Hadoop相关目录权限时,确保不同节点之间的兼容性和安全性的重要性,特别是针对hive的元数据存储。通过实施这些策略,可以显著提升Hadoop集群的整体性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

将HDFS的路径hadoop.tmp.dir修改

 

<property>
	 <name>hadoop.tmp.dir</name>
	 <value>/home/tmp</value>
</property>

 

 

 

num=8
slave=lenovo
#for i in {1..10};do
for((i=1;i<=num;i++)); do
  host=$slave${i}
  echo "开始安装${host}..."
 
  echo "拷贝几个配置文件"
  #scp  /etc/hosts  root@${host}:/etc

  scp /usr/local/hadoop/conf/core-site.xml  hadoop@${host}:/usr/local/hadoop/conf
 
  scp 4.sh root@${host}:/tmp/4.sh
  ssh root@${host} sh /tmp/4.sh

  echo "安装${host}完毕"
  
done

 

echo "创建HDFS的目录"

mv  /home/hadoop/tmp /home

#很关键
ln -s /home/tmp /home/hadoop/tmp


echo "将hadoop相关目录权限下放给用户hadoop"
chown -R hadoop:hadoop /home/tmp
chown -R hadoop:hadoop /home/hadoop/tmp
#slave上的权限只能是755,而master上的权限要是777,这样才能保证hive可以正常写入元数据。
chmod -R 755 /home/tmp
rm -rf /usr/local/hadoop/logs/*

 

 

 

 

 

参考文档

hadoop 集群间数据迁移

hive:从derby数据库到mysql的迁移

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值