大数据学习Hadoop之HDFS基础使用

一、HDFS启动:

1、第一次启动:

1.1、查看服务是否启动

ps  -ef|grep hdfs



1.2、如果未启动,进入相关目录启动

cd  /software

ll

cd /hadoop-2.8.1

ll

cd sbin



./start-dfs.sh 



1.3、查看启动的进程:

jps



2、第二次启动:


namenode:localhost 
datanode:localhost

secondary namenodes: 0.0.0.0 


3、修改namenode和datanode的启动地址:

3.1、修改namenode

cd   /software/hadoop-2.8.1/etc/hadoop

vi core-site.xml

修改为本机的ip或者hostname都行:



3.2、修改后关闭并重启:



3.3、通过浏览器访问hdfs:

http://192.168.137.130:50070



3.4、修改datanode:

关闭hdfs.



cd  /software/hadoop-2.8.1/etc/hadoop

ll

vim   slaves

192.168.137.130



编辑保存后,重新启动:



二、jps:

1.查看jps的路径:

which   jps



2、更改hadoop-2.8.1目录所属的权限,并切换为hadoop用户

chown -R hadoop:hadoop hadoop-2.8.1
 su - hadoop

cd /soft/hadoop-2.8.1/hadoop-2.8.1

sbin/start-dfs.sh

 


3、给hadoop用户配置密码:



4、配置完后,在hadoop用户下,启动hdfs:



三、以hadoop用户重新部署hdfs

1、杀死hadoop用户的进程

kill -9 $(pgrep -f hadoop)


2、以root用户登录,删除旧的数据

 rm -rf /tmp/hadoop-*     /tmp/hsperfdata-*


3、以hadoop用户登录,配置信任关系

3.1、生成本地秘钥:

ssh-keygen



3.2、将秘钥内容写入authorized_keys文件

cd .ssh

cat id_rsa.pub >> authorized_keys



3.3、做当前主机的免密码登录

chmod 600 authorized_keys

ssh 192.168.137.137 date




3.4、进行校验:

ssh 192.168.137.130 date

4、格式化文件系统:

cd /software/hadoop-2.8.1/

hdfs namenode -format



5、重新启动hdfs:

sbin/start-dfs.sh



6、修改secondarynamenode:

6.1、登录官网,查看如何配置



打开hdfs-default.xml文件,ctrl+f进行搜索:

secondarynamenode:



6.2、进入etc/hadoop目录

 vim hdfs-site.xml 



6.3、重新启动hdfs:













评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

追风邵

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值