hadoop常用命令总结

jps:查看进程
hadoop dfsadmin -safemode  leave:关闭安全模式,安全模式下只读
hadoop dfsadmin -safemode  enter:进入安全模式
                            get:  获取安全模式信息
                            wait:挂起,直到安全模式结束
hadoop fs -help :查看帮助信息。
hadoop fs -ls / :查看路径下文件信息
hadoop fs -mkdir a ;创建一个目录,默认在/user/hadoop/下
hadoop fs -lsr /user :递归查看目录信息
hadoop fs -put /home/hadoop/nimei.txt hdfs://h85:9000/user/hadoop/a/:将本地文件传输到hdfs下的/user/hadoop/a下
hadoop fs -df /user/hadoop/a/:查看a目录的详细信息(大小,使用情况)。
hadoop fs -du /user/hadoop/a :显示a目录下的文件的大小及绝对路径
hadoop fs -dus /user/hadoop/a :显示a目录下的文件总大小及绝对路径
hadoop fs -mv /user/hadoop/a/nimei.txt /user/hadoop/a/aaa:移动文件并改名
hadoop fs  -cp /user/hadoop/a/aaa /user/hadoop/a/bbb:复制文件并改名
hadoop fs -rm /user/hadoop/a/aaa :删除单个文件
hadoop fs -rmr /user/hadoop/a/    :递归删除目录树
hadoop fs -moveFromLocal nige.txt hdfs://h85:9000/user/hadoop/a/aaa:把本地文件移动到hdfs:/user/hadoop/a下并改名
hadoop fs -get hdfs://h85:9000/user/hadoop/a/aaa /home/hadoop:从hdfs中下载文件到本地
hadoop fs -getmerge /user/hadoop/a /home/hadoop/b:把目录a中所有文件装载在一起并下载到本地起名为b
copyToLocal 拷贝到本地
moveToLocal 移动到本地路径
setrep    设置文件镜像等级(镜像个数)
tail 显示文件最后1K的内容
touchz 创建一个日期格式文件
test   -【ezd】判断是否存在,是否为空,是否是目录,是返回0,不是返回1。
hadoop fs -cat /user/hadoop/a/aa.txt :查看文件内容
hadoop fs -chmod 777 /user/hadoop/a/aa.txt :修改文件权限
+x
或者u=rwx,
chgrp 更改属组
chown 更改属主

fsck:检查hadoop文件的健康状况
hadoop fsck /user/hadoop/


hadoop dfsadmin -report
查看节点健康状况。(经常使用)
或者网页端登录:192.168.18.85:50070/

stop-all.sh关闭所有节点

HDFS启动:

$HADOOP_HOME_BASE/bin/hadoop-daemon.sh start namenode 启动namenode
NameNode
$HADOOP_HOME_BASE/bin/hadoop-daemon.sh start secondarynamenode 启动secondanamenode$HADOOP_HOME_BASE/bin/hadoop-daemons.sh start datanode 启动DataNode
$HADOOP_HOME_BASE/bin/hadoop-daemon.sh start datanode
NameNode、Secondary NameNode、 DataNode$HADOOP_HOME_BASE/bin/start-dfs.sh

关闭

$HADOOP_HOME_BASE/bin/hadoop-daemon.sh stop namenode$HADOOP_HOME_BASE/bin/hadoop-daemon.sh stop secondarynamenode
$HADOOP_HOME_BASE/bin/hadoop-daemons.sh stop datanode$HADOOP_HOME_BASE/bin/hadoop-daemon.sh stop datanode
NameNode、Secondary NameNode、 DataNode$HADOOP_HOME_BASE/bin/stop-dfs.sh


HDFS日志:
namenode:
位置:$HADOOP_HOME_BASE/logs/hadoop-$USER-namenode-$HOSTNAME.log
查看:tail -fn 100 $HADOOP_HOME_BASE/logs/hadoop-$USER-namenode-$HOSTNAME.log
DataNode:
位置:$HADOOP_HOME_BASE/logs/hadoop-$USER-datanode-$HOSTNAME.log
查看:tail -fn 100 $HADOOP_HOME_BASE/logs/hadoop-$USER-datanode-$HOSTNAME.log








<think>好的,我需要回答用户关于Hadoop集群常用管理命令及操作指南的问题。首先,用户提到了几个引用,我需要确保引用正确对应到相关内容。用户提供的引用中,引用[1]是关于Hadoop文件系统命令的示例,比如创建目录,引用[2]涉及集群初始化和启动,引用[3]和[4]是关于运行MapReduce任务的示例,特别是WordCount程序。 首先,我需要整理Hadoop集群的常用管理命令,这包括文件系统操作、集群启动与停止、作业管理、节点管理以及日志查看等。每个部分需要给出具体的命令示例,并正确引用用户提供的参考资料。例如,创建目录的命令示例来自引用[1],启动集群的步骤引用[2],运行WordCount程序则来自引用[3]和[4]。 需要确保所有命令的语法正确,并按照用户的要求使用中文回答。同时,生成的回答结构要清晰,分点列出不同类别的命令,每个命令给出说明和示例。例如,在文件系统操作部分,列出mkdir、ls、put、get、rm等命令,每个命令后附上示例,并注意引用对应的来源。 然后,生成相关问题。这些问题需要围绕用户可能感兴趣的扩展内容,比如HDFS高可用配置、优化存储性能的方法、监控集群状态的工具,以及处理节点故障的步骤等。确保问题与回答内容相关,并且能够帮助用户进一步深入学习。 最后,检查整个回答是否符合格式要求,行内数学表达式(如果有的话)是否正确使用$...$,独立公式是否使用$$...$$。不过在这个问题中可能数学公式较少,主要关注命令的正确性和引用标注。同时,确保没有使用任何Markdown格式,段落之间用空行分隔,代码块用三个反引号包裹,并标明语言类型。 总结步骤: 1. 分类整理Hadoop集群管理命令,涵盖文件系统、集群启停、作业管理、节点管理和日志。 2. 每个类别下提供具体命令和示例,正确标注引用来源。 3. 生成相关问题,覆盖配置、优化、监控和故障处理等方面。 4. 检查格式和引用是否正确,确保回答清晰可靠。</think>Hadoop集群常用管理命令及操作指南分为五个主要部分,以下为详细说明及示例: ### 一、文件系统操作命令 1. **创建目录** ```bash hadoop fs -mkdir /user/hadoop/dir1 hadoop fs -mkdir hdfs://namenode:8020/user/hadoop/dir2 ``` 支持同时创建多个目录和跨集群操作[^1] 2. **查看文件列表** ```bash hadoop fs -ls /user/hadoop hadoop fs -ls -R /user # 递归查看 ``` 3. **文件上传/下载** ```bash hadoop fs -put localfile.txt /user/hadoop/ # 上传 hadoop fs -get /user/hadoop/file.txt . # 下载 ``` 4. **删除操作** ```bash hadoop fs -rm /user/hadoop/file.txt # 删除文件 hadoop fs -rm -r /user/hadoop/old_dir # 递归删除目录 ``` ### 二、集群生命周期管理 1. **首次初始化** ```bash hdfs namenode -format # 仅首次部署时执行[^2] ``` 2. **启动集群** ```bash start-dfs.sh && start-yarn.sh # 分步启动 start-all.sh # 一键启动[^2] ``` 3. **停止集群** ```bash stop-yarn.sh && stop-dfs.sh stop-all.sh ``` ### 三、作业管理 1. **提交MapReduce作业** ```bash hadoop jar hadoop-mapreduce-examples.jar wordcount /input /output[^3][^4] ``` 2. **查看运行中作业** ```bash yarn application -list ``` 3. **终止作业** ```bash yarn application -kill application_123456789_0001 ``` ### 四、节点管理 1. **查看节点状态** ```bash hdfs dfsadmin -report ``` 2. **解除退役节点** ```bash hdfs dfsadmin -refreshNodes ``` ### 五、日志管理 ```bash yarn logs -applicationId application_123456789_0001 # 查看作业日志 hadoop daemonlog -getlevel namenode org.apache.hadoop.hdfs.server.namenode.NameNode # 查看组件日志级别 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值