1、查看hadoop的目录机构
hadoop fs -ls /
必须在hadoop的目录下执行 : bin/hdfs df -ls /
2、查看文件内容
文件必须是上传过的文件
hadoop fs -cat /test/input/README.txt
hadoop fs -text /test/input/README.txt
3、改变文件所属的组
hadoop fs -chgrp -R root /test
4、改变文件的权限
hadoop fs -chmod 777 /test/input/README.txt
5、改变文件的所有者权限
hadoop fs -chown -R root:root /tmp
6、上传文件
hadoop fs -put ./test.text /test/input
hadoop fs -copyFromLocal ./test1.txt /test/input
类似剪切:hadoop fs -moveFromLocal ./test1.txt /test/input
7、下载文件
hadoop fs -get /test/input/test1.txt /usr/data
hadoop fs -copyToLocal /test/input/test2.txt /usr/data
8、复制文件
hadoop fs -cp /test/input/test2.txt /
9、显示文件大小
单位bit:hadoop fs -du /
hadoop fs -dus /
10、创建目录
hadoop fs -mkdir -p /test1/test2
11、移动文件或者改名
hadoop fs -mv /test1/test2 /test1/test3
12、改变文件的副本数量
hadoop fs -setrep -w 3 /test/input/test1.txt
13、输出文件尾部1k内容
hadoop fs -tail /test/input/README.txt
14、创建一个空的文件
hadoop fs -touchz /test/input/1.txt
15、合并文件,放到linux系统下
hadoop fs -getmerge /test/input/test1.txt /test/input/test2.txt /usr/data/merge1.txt