目前实现Linux环境下通过shell命令来实现hdfs文件的上传与下载
1.启动Hadoop
start-all.sh
2.上传文件
假设将/root目录中的jdk安装包上传到hdfs的根目录下:
hadoop fs -put jdk-7u76-linux-x64.tar.gz hdfs://master:9000/

执行完以后从网页打开http://192.168.1.111:50070/ 的文件系统刷新一下,可以看到新加进去的文件的信息

3.下载文件
点击上传的文件,则直接可以下载到Windows系统中

hdfs的存储路径与本地文件系统无关,测试如下:
删除本地的文件:rm -rf jdk-7u76-linux-x64.tar.gz

再从hdfs中下载下来
hadoop fs -get hdfs://master:9000/jdk-7u76-linux-x64.tar.gz

3.查看文件
hadoop fs -ls /

4.hdfs中复制文件到另一个文件夹下
hadoop fs -cp /jdk-7u76-linux-x64.tar.gz /tmp/

5.查看空间大小
hadoop fs -df -h /

6.查看文件大小
hadoop fs -du -h /

7.创建删除文件夹或目录
创建:hadoop fs -mkdir /aa
删除:hadoop fs -rm -r /aa
本文介绍如何使用Shell命令在Hadoop环境中进行HDFS文件上传、下载等操作,包括启动Hadoop服务、上传文件到HDFS、从HDFS下载文件、查看文件、复制文件、查看空间大小及文件大小、创建和删除文件夹等。
1542

被折叠的 条评论
为什么被折叠?



