hdfs读取数据的流程

  1. 客户端通过调用FileSystem对象的open()来读取希望打开的文件。对于HDFS来说,这个对象是分布式文件系统的一个实例。
  2. DistributedFileSystem通过RPC来调用namenode,以确定文件的开头部分的块位置。对于每一块,namenode返回具有该块副本的datanode地址。此外,这些datanode根据他们与client的距离来排序(根据网络集群的拓扑)。如果该client本身就是一个datanode,便从本地datanode中读取。DistributedFileSystem 返回一个FSDataInputStream对象给client读取数据,FSDataInputStream转而包装了一个DFSInputStream对象。
  3. 接着client对这个输入流调用read()。存储着文件开头部分块的数据节点地址的DFSInputStream随即与这些块最近的datanode相连接。
  4. 通过在数据流中反复调用read(),数据会从datanode返回client。
  5. 到达块的末端时,DFSInputStream会关闭与datanode间的联系,然后为下一个块找到最佳的datanode。client端只需要读取一个连续的流,这些对于client来说都是透明的。
  • 在读取的时候,如果client与datanode通信时遇到一个错误,那么它就会去尝试对这个块来说下一个最近的块。它也会记住那个故障节点的datanode,以保证不会再对之后的块进行徒劳无益的尝试。client也会确认datanode发来的数据的校验和。如果发现一个损坏的块,它就会在client试图从别的datanode中读取一个块的副本之前报告给namenode。
  • 这个设计的一个重点是,client直接联系datanode去检索数据,并被namenode指引到块中最好的datanode。因为数据流在此集群中是在所有datanode分散进行的。所以这种设计能使HDFS可扩展到最大的并发client数量。同时,namenode只不过提供块的位置请求(存储在内存中,十分高效),不是提供数据。否则如果客户端数量增长,namenode就会快速成为一个“瓶颈”。

### HDFS 数据读取流程解析 HDFS 的数据读取过程涉及多个组件之间的交互,主要包括客户端(Client)、名称节点(NameNode)和数据节点(DataNode)。以下是详细的解析: #### 1. 客户端发起请求 当客户端需要读取某个文件时,它会向 NameNode 发送请求以获取该文件的元数据信息。这些元数据包含了文件所在的数据块及其对应的数据节点位置[^2]。 #### 2. 名称节点返回元数据 NameNode 接收到来自客户端的请求后,会检查文件是否存在以及其权限是否允许访问。如果一切正常,则返回文件的块列表及每个块所在的 DataNode 地址。需要注意的是,为了提高性能和负载均衡,NameNode 不一定会提供所有的副本地址,而是优先选择距离较近或者网络延迟较低的节点[^3]。 #### 3. 客户端连接至最近的数据节点 接收到 NameNode 返回的信息后,客户端会选择其中一个最合适的 DataNode 进行实际的数据读取操作。通常情况下,默认采用就近原则选取离自己物理位置更靠近的那个节点来减少跨机房甚至跨国界的通信成本[^5]。 #### 4. 数据传输阶段 一旦建立了与选定 DataNode 的TCP/IP链接,就开始正式进入数据传送环节。在此期间可能会发生如下情况: - 如果当前正在读取的部分跨越了一个block边界,则需重新询问namenode下一个block的位置; - 当前datanode不可用时尝试切换到另一个可用副本继续读取直到完成整个文件内容为止[^1]。 #### 流程图说明 虽然这里无法直接展示图片形式的具体流程图表,但是可以根据以上描述构建出类似的逻辑结构图。一般这样的图形化表示方法会使用矩形框代表各个参与方如client、namenode 和 datanodes ,箭头指向表明消息传递的方向,并标注清楚每一步骤的关键动作或决策点[^2]。 ```java // Java代码示例展示了如何利用Apache Hadoop库实现基本的功能接口调用来执行上述提到的操作序列。 import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; public class ReadFileFromHDFS { public static void main(String[] args) throws Exception{ Configuration config = new Configuration(); FileSystem hdfsFileSystem = FileSystem.get(config); Path pathToRead = new Path("/path/to/file"); InputStream inStream = null; try { inStream = hdfsFileSystem.open(pathToRead); BufferedReader reader = new BufferedReader(new InputStreamReader(inStream)); String line; while ((line=reader.readLine()) !=null){ System.out.println(line); } } finally { IOUtils.closeQuietly(inStream); if(hdfsFileSystem!=null){ hdfsFileSystem.close(); } } } } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值