Hadoop FS常用命令

1、概述

Hadoop文件系统(FS)提供了各种shell命令,与shell命令类似,可用于同分布式文件系统(HDFS)进行交互,以管理HDFS集群中的文件和数据。

2、Hadoop FS常用命令

(1)创建目录
用法:

hadoop fs -mkdir <paths>

示例:
创建单个目录:

hadoop fs -mkdir /home/myfile/dir1

创建多目录:

hadoop fs -mkdir /home/myfile/dir1 /home/myfile/dir2

(2)查看目录
用法:

hadoop fs -ls <paths>

示例:
与shell中ls类似:

hadoop fs -ls /home/myfile/

注:hadoop fs -ls会打印出目录统计信息和详细信息,对文件批处理需注意格式。

(3)上传文件
将一个或多个文件从本地系统复制到Hadoop文件系统。
用法:

hadoop fs -put <local_files> ... <hdfs_path>

示例:

hadoop fs -put Desktop/test.sh /home/myfile/dir1/

(4)下载文件
将文件从HDFS下载到本地文件系统。
用法:

hadoop fs -get <hdfs_paths> <local_path>

示例:

hadoop fs -get /home/myfile/test.sh Downloads/

(5)查看文件
用法:

hadoop fs -cat <paths>

示例:

hadoop fs -cat /home/myfile/test.sh

(6)复制文件
用法:

hadoop fs -cp <source_path> ... <destination_path>

示例:

hadoop fs -cp /home/myfile/test.sh /home/myfile/dir

(7)移动文件
用法:

hadoop fs -mv <source_path> <destination_path>

示例:

hadoop fs -mv /home/myfile/test.sh /home/myfile/dir

(8)删除文件
删除指令有两个选项,-rm和-rm -r
用法:

hadoop fs -rm <path>

示例:

hadoop fs -rm /home/myfile/test.sh

上述命令只会删除给定目录下的文件,如果要删除一个包含文件的目录,类似于shell中的rm,需要使用递归参数-r。

下面是rm的递归操作:
用法:

hadoop fs -rm -r <path>

示例:

hadoop fs -rm -r /home/myfile/dir

(9)查看文件尾部
用法:

hadoop fs -tail <path>

示例:

hadoop fs -tail /home/myfile/test.sh

(10)显示文件总长度
用法:

hadoop fs -du <path>

示例:

hadoop fs -du /home/myfile/test.sh

(11)统计文件数和大小
用法:

hadoop fs -count <path>

示例:

hadoop fs -count /home/myfile

(12)统计文件系统空间的详细信息
用法:

hadoop fs -df <path>

示例:

hadoop fs -df /home/myfile

(13)合并文件
从HDFS拷贝多个文件、合并排序为一个文件到本地文件系统
用法:

hadoop fs –getmerge <src> <localdst>

示例:

hadoop fs –getmerge /user/hduser0011/test /home/myfile/dir

常用命令补充:
HDFS常用命令(移动、复制、文件大小)

<think>好的,我需要回答用户关于Hadoop集群常用管理命令及操作指南的问题。首先,用户提到了几个引用,我需要确保引用正确对应到相关内容。用户提供的引用中,引用[1]是关于Hadoop文件系统命令的示例,比如创建目录,引用[2]涉及集群初始化和启动,引用[3]和[4]是关于运行MapReduce任务的示例,特别是WordCount程序。 首先,我需要整理Hadoop集群的常用管理命令,这包括文件系统操作、集群启动与停止、作业管理、节点管理以及日志查看等。每个部分需要给出具体的命令示例,并正确引用用户提供的参考资料。例如,创建目录的命令示例来自引用[1],启动集群的步骤引用[2],运行WordCount程序则来自引用[3]和[4]。 需要确保所有命令的语法正确,并按照用户的要求使用中文回答。同时,生成的回答结构要清晰,分点列出不同类别的命令,每个命令给出说明和示例。例如,在文件系统操作部分,列出mkdir、ls、put、get、rm等命令,每个命令后附上示例,并注意引用对应的来源。 然后,生成相关问题。这些问题需要围绕用户可能感兴趣的扩展内容,比如HDFS高可用配置、优化存储性能的方法、监控集群状态的工具,以及处理节点故障的步骤等。确保问题与回答内容相关,并且能够帮助用户进一步深入学习。 最后,检查整个回答是否符合格式要求,行内数学表达式(如果有的话)是否正确使用$...$,独立公式是否使用$$...$$。不过在这个问题中可能数学公式较少,主要关注命令的正确性和引用标注。同时,确保没有使用任何Markdown格式,段落之间用空行分隔,代码块用三个反引号包裹,并标明语言类型。 总结步骤: 1. 分类整理Hadoop集群管理命令,涵盖文件系统、集群启停、作业管理、节点管理和日志。 2. 每个类别下提供具体命令和示例,正确标注引用来源。 3. 生成相关问题,覆盖配置、优化、监控和故障处理等方面。 4. 检查格式和引用是否正确,确保回答清晰可靠。</think>Hadoop集群常用管理命令及操作指南分为五个主要部分,以下为详细说明及示例: ### 一、文件系统操作命令 1. **创建目录** ```bash hadoop fs -mkdir /user/hadoop/dir1 hadoop fs -mkdir hdfs://namenode:8020/user/hadoop/dir2 ``` 支持同时创建多个目录和跨集群操作[^1] 2. **查看文件列表** ```bash hadoop fs -ls /user/hadoop hadoop fs -ls -R /user # 递归查看 ``` 3. **文件上传/下载** ```bash hadoop fs -put localfile.txt /user/hadoop/ # 上传 hadoop fs -get /user/hadoop/file.txt . # 下载 ``` 4. **删除操作** ```bash hadoop fs -rm /user/hadoop/file.txt # 删除文件 hadoop fs -rm -r /user/hadoop/old_dir # 递归删除目录 ``` ### 二、集群生命周期管理 1. **首次初始化** ```bash hdfs namenode -format # 仅首次部署时执行[^2] ``` 2. **启动集群** ```bash start-dfs.sh && start-yarn.sh # 分步启动 start-all.sh # 一键启动[^2] ``` 3. **停止集群** ```bash stop-yarn.sh && stop-dfs.sh stop-all.sh ``` ### 三、作业管理 1. **提交MapReduce作业** ```bash hadoop jar hadoop-mapreduce-examples.jar wordcount /input /output[^3][^4] ``` 2. **查看运行中作业** ```bash yarn application -list ``` 3. **终止作业** ```bash yarn application -kill application_123456789_0001 ``` ### 四、节点管理 1. **查看节点状态** ```bash hdfs dfsadmin -report ``` 2. **解除退役节点** ```bash hdfs dfsadmin -refreshNodes ``` ### 五、日志管理 ```bash yarn logs -applicationId application_123456789_0001 # 查看作业日志 hadoop daemonlog -getlevel namenode org.apache.hadoop.hdfs.server.namenode.NameNode # 查看组件日志级别 ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值