hadoop上的常用命令

参考网上的一个人的博客整理了一下:


启动Hadoop

进入HADOOP_HOME目录。

执行bin/start-all.sh

关闭Hadoop

进入HADOOP_HOME目录

执行bin/stop-all.sh

 

1、查看指定目录下内容

hadoop dfs –ls [文件目录]

eg: hadoop dfs –ls /user/wangkai.pt

2、打开某个已存在文件

hadoop dfs –cat [file_path]

eg:hadoop dfs -cat /user/wangkai.pt/data.txt

3、将本地文件存储至hadoop

hadoop fs –put [本地地址] [hadoop目录]

hadoop fs –put /home/t/file.txt  /user/t   

(file.txt是文件名)

4、将本地文件夹存储至hadoop

hadoop fs –put [本地目录] [hadoop目录] 
hadoop fs –put /home/t/dir_name /user/t

(dir_name是文件夹名)

5、将hadoop上某个文件down至本地已有目录下

hadoop fs -get [文件目录] [本地目录]

hadoop fs –get /user/t/ok.txt /home/t

6、删除hadoop上指定文件

hadoop fs –rm [文件地址]

hadoop fs –rm /user/t/ok.txt

7、删除hadoop上指定文件夹(包含子目录等)

hadoop fs –rm [目录地址]

hadoop fs –rmr /user/t

8、在hadoop指定目录内创建新目录

hadoop fs –mkdir /user/t

9、在hadoop指定目录下新建一个空文件

使用touchz命令:

hadoop  fs  -touchz  /user/new.txt

10、将hadoop上某个文件重命名

使用mv命令:

hadoop  fs  –mv  /user/test.txt  /user/ok.txt   (将test.txt重命名为ok.txt)

11、将hadoop指定目录下所有内容保存为一个文件,同时down至本地

hadoop dfs –getmerge /user /home/t

12、将正在运行的hadoop作业kill掉

hadoop job –kill  [job-id]


hadoop启动过程中的的日志信息,在HADOOP_HOME目录下的log文件夹下,关于NameNode、DataNode等启动不了的,可以看看log里面的日志信息

<think>好的,我需要回答用户关于Hadoop集群常用管理命令及操作指南的问题。首先,用户提到了几个引用,我需要确保引用正确对应到相关内容。用户提供的引用中,引用[1]是关于Hadoop文件系统命令的示例,比如创建目录,引用[2]涉及集群初始化和启动,引用[3]和[4]是关于运行MapReduce任务的示例,特别是WordCount程序。 首先,我需要整理Hadoop集群的常用管理命令,这包括文件系统操作、集群启动与停止、作业管理、节点管理以及日志查看等。每个部分需要给出具体的命令示例,并正确引用用户提供的参考资料。例如,创建目录命令示例来自引用[1],启动集群的步骤引用[2],运行WordCount程序则来自引用[3]和[4]。 需要确保所有命令的语法正确,并按照用户的要求使用中文回答。同时,生成的回答结构要清晰,分点列出不同类别的命令,每个命令给出说明和示例。例如,在文件系统操作部分,列出mkdir、ls、put、get、rm等命令,每个命令后附上示例,并注意引用对应的来源。 然后,生成相关问题。这些问题需要围绕用户可能感兴趣的扩展内容,比如HDFS高可用配置、优化存储性能的方法、监控集群状态的工具,以及处理节点故障的步骤等。确保问题与回答内容相关,并且能够帮助用户进一步深入学习。 最后,检查整个回答是否符合格式要求,行内数学表达式(如果有的话)是否正确使用$...$,独立公式是否使用$$...$$。不过在这个问题中可能数学公式较少,主要关注命令的正确性和引用标注。同时,确保没有使用任何Markdown格式,段落之间用空行分隔,代码块用三个反引号包裹,并标明语言类型。 总结步骤: 1. 分类整理Hadoop集群管理命令,涵盖文件系统、集群启停、作业管理、节点管理和日志。 2. 每个类别下提供具体命令和示例,正确标注引用来源。 3. 生成相关问题,覆盖配置、优化、监控和故障处理等方面。 4. 检查格式和引用是否正确,确保回答清晰可靠。</think>Hadoop集群常用管理命令及操作指南分为五个主要部分,以下为详细说明及示例: ### 一、文件系统操作命令 1. **创建目录** ```bash hadoop fs -mkdir /user/hadoop/dir1 hadoop fs -mkdir hdfs://namenode:8020/user/hadoop/dir2 ``` 支持同时创建多个目录和跨集群操作[^1] 2. **查看文件列表** ```bash hadoop fs -ls /user/hadoop hadoop fs -ls -R /user # 递归查看 ``` 3. **文件上传/下载** ```bash hadoop fs -put localfile.txt /user/hadoop/ # 上传 hadoop fs -get /user/hadoop/file.txt . # 下载 ``` 4. **删除操作** ```bash hadoop fs -rm /user/hadoop/file.txt # 删除文件 hadoop fs -rm -r /user/hadoop/old_dir # 递归删除目录 ``` ### 二、集群生命周期管理 1. **首次初始化** ```bash hdfs namenode -format # 仅首次部署时执行[^2] ``` 2. **启动集群** ```bash start-dfs.sh && start-yarn.sh # 分步启动 start-all.sh # 一键启动[^2] ``` 3. **停止集群** ```bash stop-yarn.sh && stop-dfs.sh stop-all.sh ``` ### 三、作业管理 1. **提交MapReduce作业** ```bash hadoop jar hadoop-mapreduce-examples.jar wordcount /input /output[^3][^4] ``` 2. **查看运行中作业** ```bash yarn application -list ``` 3. **终止作业** ```bash yarn application -kill application_123456789_0001 ``` ### 四、节点管理 1. **查看节点状态** ```bash hdfs dfsadmin -report ``` 2. **解除退役节点** ```bash hdfs dfsadmin -refreshNodes ``` ### 五、日志管理 ```bash yarn logs -applicationId application_123456789_0001 # 查看作业日志 hadoop daemonlog -getlevel namenode org.apache.hadoop.hdfs.server.namenode.NameNode # 查看组件日志级别 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值