1.关于fs的命令
1、列出所有Hadoop Shell支持的命令
$ bin/hadoop fs -help
2、显示关于某个命令的详细信息
$ bin/hadoop fs -help command-name
2.关于job的命令
3、用户可使用以下命令在指定路径下查看历史日志汇总
$ bin/hadoop job -history output-dir
这条命令会显示作业的细节信息,失败和终止的任务细节。
4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看
$ bin/hadoop job -history all output-dir
3.关于namenode的命令
5、 格式化一个新的分布式文件系统:
$ bin/hadoop namenode -format
6、在分配的NameNode上,运行下面的命令启动HDFS:
$ bin/start-dfs.sh
脚本会参照NameNode上{HADOOP_CONF_DIR}/slaves
文件的内容,在所有列出的slave上启动DataNode守护进程。
7、在分配的JobTracker【ResourceManager】上,运行下面的命令启动Map/Reduce:
$ bin/start-mapred.sh
脚本会参照JobTracker【ResourceManager】上{HADOOP_CONF_DIR}/slaves
文件的内容,在所有列出的slave上启动TaskTracker【NodeManager】守护进程。
8、在分配的NameNode上,执行下面的命令停止HDFS:
$ bin/stop-dfs.sh
脚本会参照NameNode上{HADOOP_CONF_DIR}/slaves
文件的内容,在所有列出的slave上停止DataNode守护进程。
9、在分配的JobTracker【ResourceManager】上,运行下面的命令停止Map/Reduce:
$ bin/stop-mapred.sh
脚本会参照JobTracker【ResourceManager】上{HADOOP_CONF_DIR}/slaves
文件的内容,在所有列出的slave上停止TaskTracker【NodeManager】守护进程。
3.关于dfs的命令
10、创建一个名为 /foodir 的目录
$ bin/hadoop dfs -mkdir /foodir
11、创建一个名为 /foodir 的目录