Hadoop实践(四)---Hadoop管理与维护命令

本文详细介绍了Hadoop管理与维护的各种命令,包括fs、job、namenode、dfs、dfsadmin的相关操作,如文件系统管理、作业监控、NameNode与DataNode的启停、集群升级与回滚等,旨在帮助管理员更好地管理和维护Hadoop集群。

1.关于fs的命令

1、列出所有Hadoop Shell支持的命令

$ bin/hadoop fs -help

2、显示关于某个命令的详细信息

$ bin/hadoop fs -help command-name

2.关于job的命令

3、用户可使用以下命令在指定路径下查看历史日志汇总

$ bin/hadoop job -history output-dir

这条命令会显示作业的细节信息,失败和终止的任务细节。

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看

$ bin/hadoop job -history all output-dir

3.关于namenode的命令

5、 格式化一个新的分布式文件系统:

$ bin/hadoop namenode -format

6、在分配的NameNode上,运行下面的命令启动HDFS:

$ bin/start-dfs.sh

脚本会参照NameNode上{HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动DataNode守护进程。

7、在分配的JobTracker【ResourceManager】上,运行下面的命令启动Map/Reduce:

$ bin/start-mapred.sh

脚本会参照JobTracker【ResourceManager】上{HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动TaskTracker【NodeManager】守护进程。

8、在分配的NameNode上,执行下面的命令停止HDFS:

$ bin/stop-dfs.sh 

脚本会参照NameNode上{HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止DataNode守护进程。

9、在分配的JobTracker【ResourceManager】上,运行下面的命令停止Map/Reduce:

$ bin/stop-mapred.sh 

脚本会参照JobTracker【ResourceManager】上{HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止TaskTracker【NodeManager】守护进程。

3.关于dfs的命令

10、创建一个名为 /foodir 的目录

$ bin/hadoop dfs -mkdir /foodir

11、创建一个名为 /foodir 的目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值