linux新机器做完raid相关盘后,hadoop的相关设置

本文详细记录了在Linux环境下,使用Hadoop用户通过scp命令跨机器传输Hadoop压缩包,并将其解压至目标目录的过程。同时,文章还介绍了如何通过chown命令调整文件权限,确保Hadoop用户能够正确访问数据盘。此外,还提供了修改Hadoop配置文件的具体步骤,包括设置dfs.datanode.data.dir参数,以指定数据节点的存储路径。

PS:(raid做得系统,Hadoop存放数据的盘不做raid,普通盘)
刚才在192(Linux)机器上操作如下:
0:先定hadoop服务
1:使用root用户登录然后 将新增的几个盘的目录设置给hadoop用户 使用如下命令,使用root用户执行
chown -R hadoop:hadoop /data
chown -R hadoop:hadoop /data1
chown -R hadoop:hadoop /data2
2:然后将191上面的hadoop基础文件压缩包弄到192上面 登录191上面进行操作 使用hadoop用户操作
scp /data/BigData_App/hadoop.tar.gz hadoop@48.1.32.192:/data/BigData_App/hadoop.tar.gz
scp /data/BigData_App/hadoop.tar.gz hadoop@48.1.32.192:/data1/BigData_App/hadoop.tar.gz
scp /data/BigData_App/hadoop.tar.gz hadoop@48.1.32.192:/data2/BigData_App/hadoop.tar.gz
然后使用hadoop到192机器上 对hadoop.tar.gz进行解压
3:然后修改hadoop的配置文件/hadoop/etc/hadoop/hdfs-site.xml(cd home/hadoop/hadoop/etc/hadoop/),dfs.datanode.data.dir对应的下面的value值,使用逗号隔开
dfs.datanode.data.dir
/data/BigData_App/hadoop/hdata,/data1/BigData_App/hadoop/hdata,/data2/BigData_App/hadoop/hdata
4:重启hadoop服务;

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值