HDFS数据读取流程

本文详细解析了Hadoop客户端读取文件的具体流程,包括如何通过FileSystem对象打开文件,发送RPC请求确定文件block位置,获取并读取block,以及如何在读取过程中处理并行读取和失败重试。

1.读取文件

客户端通过调用FileSystem对象的open()来读取希望打开的文件。
在这里插入图片描述

2. 发送请求,确定文件block所在的位置

Client向NameNode发起RPC请求,来确定请求文件block所在的位置;RPC指的是远程过程调用。是集群中多个组件、多个模块进行数据通信的一种方式。
在这里插入图片描述

3. 获取文件block所在的位置

NameNode会视情况返回文件的部分或者全部block列表,对于每个block,NameNode都会返回含有该block副本的DataNode地址这些返回的DN地址,会按照集群拓扑结构得出DataNode与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离Client 近的排靠前;心跳机制中超时汇报的DN状态为STALE这样的排靠后;
在这里插入图片描述

4.读取block,如果客户端本身就是DataNode,直接读取

Client选取排序靠前的DataNode来读取block,如果客户端本身就是DataNode,那么将从本地直接获取数据(短路读取特性);
在这里插入图片描述

5. 读取block

底层上本质是建立 Socket Stream(FSDataInputStream),重复的调用父类 DataInputStream的read方法,直到这个块上的数据读取完毕;
在这里插入图片描述

6.并行读取,若失败重新读取
在这里插入图片描述

7.发送请求,获取下一个文件block所在的位置

当读完列表的 block 后,若文件读取还没有结束,客户端会继续向NameNode 获取下一批的block列表
在这里插入图片描述

8.返回后续block列表

在这里插入图片描述

9. 最终关闭读流,并将读取来所有的 block 会合并成一个完整的最终文件

在这里插入图片描述

### HDFS 数据读取流程解析 HDFS数据读取过程涉及多个组件之间的交互,主要包括客户端(Client)、名称节点(NameNode)和数据节点(DataNode)。以下是详细的解析: #### 1. 客户端发起请求 当客户端需要读取某个文件时,它会向 NameNode 发送请求以获取该文件的元数据信息。这些元数据包含了文件所在的数据块及其对应的数据节点位置[^2]。 #### 2. 名称节点返回元数据 NameNode 接收到来自客户端的请求后,会检查文件是否存在以及其权限是否允许访问。如果一切正常,则返回文件的块列表及每个块所在的 DataNode 地址。需要注意的是,为了提高性能和负载均衡,NameNode 不一定会提供所有的副本地址,而是优先选择距离较近或者网络延迟较低的节点[^3]。 #### 3. 客户端连接至最近的数据节点 接收到 NameNode 返回的信息后,客户端会选择其中一个最合适的 DataNode 进行实际的数据读取操作。通常情况下,默认采用就近原则选取离自己物理位置更靠近的那个节点来减少跨机房甚至跨国界的通信成本[^5]。 #### 4. 数据传输阶段 一旦建立了与选定 DataNode 的TCP/IP链接,就开始正式进入数据传送环节。在此期间可能会发生如下情况: - 如果当前正在读取的部分跨越了一个block边界,则需重新询问namenode下一个block的位置; - 当前datanode不可用时尝试切换到另一个可用副本继续读取直到完成整个文件内容为止[^1]。 #### 流程图说明 虽然这里无法直接展示图片形式的具体流程图表,但是可以根据以上描述构建出类似的逻辑结构图。一般这样的图形化表示方法会使用矩形框代表各个参与方如client、namenode 和 datanodes ,箭头指向表明消息传递的方向,并标注清楚每一步骤的关键动作或决策点[^2]。 ```java // Java代码示例展示了如何利用Apache Hadoop库实现基本的功能接口调用来执行上述提到的操作序列。 import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; public class ReadFileFromHDFS { public static void main(String[] args) throws Exception{ Configuration config = new Configuration(); FileSystem hdfsFileSystem = FileSystem.get(config); Path pathToRead = new Path("/path/to/file"); InputStream inStream = null; try { inStream = hdfsFileSystem.open(pathToRead); BufferedReader reader = new BufferedReader(new InputStreamReader(inStream)); String line; while ((line=reader.readLine()) !=null){ System.out.println(line); } } finally { IOUtils.closeQuietly(inStream); if(hdfsFileSystem!=null){ hdfsFileSystem.close(); } } } } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值