1、-tail
显示文件的末尾,不支持行数
hadoop fs -tail /bigdata/fangfang.txt



hadoop fs -tail -n 5 /bigdata/fangfang.txt(不支持)

但是支持-tail后面写追加。加上-f跟随查看。查看之后不退出
hadoop fs -tail -f /bigdata/fangfang.txt

在开一个连接:

hadoop fs -appendToFile songsong.txt /bigdata/fangfang.txt


-rm删除文件功能

删除目录需要添加-r


-rmdir删除一个空目录(只能删除一个空目录)
先建立一个空目录abc


统计文件夹的大小信息:-du
-h 以更容易阅读的方式(换算单位MB)
-s 代表做一个统计
使用-du 查看/bigdata文件


设置文件的副本数量:-setrep
可以修改,默认是3
改变副本数量,把3改成5:



但是,注意:hdfs真正为/bigdata/fangfang.txt维护的还是三个副本,因为我们只有三个节点,不可能再一个节点维护多个副本。这是写这个没有意义。
以后,动态扩展节点为5个时,发现你设置的副本数是5,那Hadoop会尽可能满足你设置的副本数量。现在设置没有意义。
2、往少了改:之前是三个现在设置成2个

之前的三个分别在102 103 104机器上

现在变成了两个,也就是会随机删除一个,注意是:随机删除



hdfs都是以块为单位去存储数据的

尝试解决web端操作权限问题:

在/opt/module/hadoop-3.1.3/etc/hadoop目录下的core-site.xml文件修改


之后再进行分发这个配置文件
重新启动集群。
如果一个文件被切成了两块,那每一块都需要上传三分。
本文围绕Hadoop展开,介绍了文件操作命令,如-tail显示文件末尾、-rm删除文件、-rmdir删除空目录、-du统计文件夹大小、-setrep设置文件副本数量等。还提到了往少改副本数会随机删除,以及尝试解决web端操作权限问题的方法。

3861

被折叠的 条评论
为什么被折叠?



