【hadoop】HDFS操作命令

本文详细介绍了Hadoop中HDFS的各种操作命令,包括文件的查看、上传、下载、删除、重命名、移动等基本操作,以及与getconf、dfsadmin和fsck工具的结合使用。还提及了在使用过程中可能出现的问题,如append报错及其解决方案,涉及修改hdfs-site.xml配置文件。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

这章介绍一下hadoop 的一些简单的操作命令,可以简单的感受一下hadoop

一、hadoop命令
  1. Hadoop fs类似于hdfs dfs (hdfs dfs -ls /==hadoop fs -ls /)
    在这里插入图片描述
  2. 如何查看hdfs子命令的帮助信息:-help
hdfs dfs -help 【rm】

在这里插入图片描述

  1. 在hdfs里面创建文件 -touchz
    在这里插入图片描述
  2. 把文件从hdfs上传到本地:-get
    Hdfs dfs -get hdfs路径 /本地路径
    在这里插入图片描述
  3. 把文件从本地上传到hdfs:-put
    Hdfs dfs -put /本地路径 hdfs路径
    在这里插入图片描述
  4. 在hdfs上删除文件:-rm
Hdfs dfs -rm 【文件】

在这里插入图片描述

  1. 在hdfs上创建目录:-mkdir
Hdfs dfs -mkdir 【目录】

在这里插入图片描述

  1. 在hdfs上查看文件内容:-cat
Hdfs dfs -cat 【文件】

在这里插入图片描述

  1. 把本地内容追加到hdfs:-appendToFile
Hdfs dfs -appendToFile 本地路径 hdfs路径

在这里插入图片描述

  1. 安全模式,保证是off状态
    在这里插入图片描述
  2. 在hdfs里更改文件名和移动文件:-mv
Hdfs dfs -mv 源地址 目标地址

在这里插入图片描述

  1. 在hdfs里复制文件:-cp
Hdfs dfs -cp 源地址 目标地址

在这里插入图片描述

  1. 在hdfs里面递归删除目录
Hdfs dfs -rm -r 目录

在这里插入图片描述
备注:

  • 递归删除-----删除文件的时候,该文件下存在其他东西,就要先删除其他东西,再删除文件夹
  • 交互式删除-----删掉一个的时候 进行提示
二、hdfs和getconf结合使用

获得hdfs的基本信息

  1. 获取namenode节点名称 (可能获取多个)
Hdfs getconf -namenodes

在这里插入图片描述

  1. 获取namenode的rpc地址
Hdfs getconf -nnRpcAddresses

在这里插入图片描述

三、hdfs和dfsadmin结合使用

dfsadmin工具用途较广,既可以查找HDFS状态信息,又可在HDFS上执行管理操作
在这里插入图片描述

  1. -report:显示文件系统的统计信息(类似于网页界面上显示的内容),以及所连接的各个datanode的信息
    在这里插入图片描述
  2. -safemode enter | leave | get | wait
    改变或查询安全模式
    • get —查看namenode是否处于安全模式
    • wait —用户执行某条命令时先退出安全模式(暂时)
    • enter —-进去安全模式
    • leave —离开安全模式
      在这里插入图片描述
四、hdfs和fsck结合使用

fsck是用来检测hdfs上文件、block信息的
在这里插入图片描述
在这里插入图片描述

五、其他命令

hadoop jar
运行jar文件。用户可以把他们的Map Reduce代码捆绑到jar文件中,使用这个命令执行

六、出现问题
  1. append时出现报错
    在这里插入图片描述

    解决方法:修改hdfs-site.xml文件,添加或者修改如下两项:

<property>
	<name>dfs.client.block.write.replace-datanode-on-failure.enable</name>
	<value>true</value>
	</property>
	<property>
	<name>dfs.client.block.write.replace-datanode-on-failure.policy</name>
	<value>NEVER</value>
	</property>

在这里插入图片描述

  • 对于dfs.client.block.write.replace-datanode-on-failure.enable,客户端在写失败的时候,是否使用更换策略,默认是true没有问题。
  • 对于dfs.client.block.write.replace-datanode-on-failure.policy,default在3个或以上备份的时候,是会尝试更换结点尝试写入datanode。而在两个备份的时候,不更换datanode,直接开始写。对于3个datanode的集群,只要一个节点没响应写入就会出问题,所以可以关掉。

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值