检查HDFS文件空间:
hadoop fs -du -h /
清空回收站 :
bin/hadoop dfs -ls /user/grid/.Trash
- 文件操作:
- 查看目录文件:
hadoop dfs -ls /user/cl - 创建文件目录:
hadoop dfs -mkdir /user/cl/temp - 删除文件:
hadoop dfs -rm /user/cl/temp/a.txt - 删除目录与目录下所有文件:
hadoop dfs -rmr /user/cl/temp - 上传文件:
- 上传一个本机/home/cl/local.txt到HDFS中/user/cl/temp目录下:
- 查看目录文件:
hadoop dfs -put /home/cl/local.txt /user/cl/temp
- 下载文件:
- 下载HDFS中/user/cl/temp目录下的hdfs.txt文件到本机/home/cl/中:
hadoop dfs -get /user/cl/temp/hdfs.txt /home/cl
- 查看文件:
hadoop dfs –cat /home/cl/hdfs.txt - Job操作:
提交MapReduce Job,Hadoop所有的MapReduce Job都是一个jar包:
hadoop jar <local-jar-file> <java-class> <hdfs-input-file> <hdfs-output-dir>
hadoop jar sandbox-mapred-0.0.20.jar sandbox.mapred.WordCountJob /user/cl/input.dat /user/cl/outputdir
-
杀死某个正在运行的Job,假设Job_Id为:job_201207121738_0001:
hadoop job -kill job_201207121738_0001
统计当前文件夹下文件的个数,包括子文件夹里的:
ls -lR|grep "^-"|wc -l
统计文件夹下目录的个数,包括子文件夹里的:
ls -lR|grep "^d"|wc -l
统计当前文件夹下文件的个数:
ls -l |grep "^-"|wc -l
本文详细介绍了如何检查HDFS文件空间,清空回收站以及执行各种文件操作,如查看目录、创建与删除文件目录、上传下载文件、提交MapReduce Job等。同时还提供了统计文件和目录数量的方法。
8668

被折叠的 条评论
为什么被折叠?



