hdfs的读写策略

本文详细介绍了HDFS(Hadoop分布式文件系统)中的数据读取和写入流程。读取过程中,客户端通过FileSystem实例获取文件对应的输入流,并从NameNode获取数据块位置,随后从最近的DataNode读取数据。写入时,客户端创建文件并通过输出流写入数据,NameNode分配DataNode保存数据及其副本,数据通过DataNode间的管道传输并确认。

读数据过程:

          

1.客户端调用FileSystem 实例的open 方法,获得这个文件对应的输入流InputStream

2.访问NameNode,获取文件对应数据块的保存位置,包括副本位置。

3.获得输入流之后,客户端便调用read()方法读取数据。选择最近的datanode进行连接并读取数据。

4.如果客户端与一个datanode位于用一台机架,那么直接从本地读取数据。

5.到达数据块末端,关闭与这个datanode的连接,然后重新检查找到下一个数据块。

6.不断执行2-5直到数据完全读完。

7.客户端调用close(),关闭FSDataInutStream。

 

写数据过程:

           

1.客户端调用FileSystem实例的create()方法,创建文件。NameNode 通过一些检查,比如文件是否存在,客户端是否拥有创建权限等;通过检查之后,在NameNode 添加文件信息。注意,因为此时文件没有数据,所以NameNode 上也没有文件数据块的信息。

2.创建结束之后, HDFS 会返回一个输出流DFSDataOutputStream 给客户端

3.客户端调用输出流DFSDataOutputStream 的write 方法向HDFS 中对应的文件写入数据。

4.数据首先会被分块,分块写入一个输出流的内部Data队列中,接受完数据分块,输出流DFSDataOutputStream 会向NameNode 申请保存文件和副本数据块的若干个DataNode , 这若干个DataNode 会形成一个数据传输管道。DFSDataOutputStream 将数据传输给距离上最短的DataNode ,这个DataNode 接收到数据包之后会传给下一个DataNode 。数据在各DataNode之间通过管道流动,而不是全部由输出流分发,以减少传输开销。

5.因为各DataNode 位于不同机器上,数据需要通过网络发送,所以,为了保证所有DataNode 的数据都是准确的,接收到数据的DataNode 要向发送者发送确认包(ACK Packet ) 。对于某个数据块,只有当DFSDataOutputStream 收到了所有DataNode 的正确ACK. 才能确认传输结束。DFSDataOutputStream 内部专门维护了一个等待ACK 队列,这一队列保存已经进入管道传输数据、但是并未被完全确认的数据包。

6.不断执行第3 - 5 步直到数据全部写完,客户端调用close 关闭文件。

7.DFSDataInputStream 继续等待直到所有数据写人完毕并被确认,调用complete 方法通知NameNode 文件写入完成。NameNode 接收到complete 消息之后,等待相应数量的副本写入完毕后,告知客户端。

### HDFS读写流程 #### 入流程 HDFS入过程是一个复杂的过程,涉及客户端、NameNode 和 DataNode 的交互。以下是详细的描述: 1. **创建文件** 当客户端调用 `FileSystem.create()` 方法时,会触发 DistributedFileSystem 中的 DFSClient 向 NameNode 发送 RPC 请求以创建文件[^3]。此操作会在 NameNode 上记录该文件的元数据信息。 2. **获取 Block 分配** 客户端再次向 NameNode 发起请求,询问可以存储数据的第一个 block 的位置以及负责存储该 block 的 DataNode 列表。NameNode 返回一组适合的数据节点列表,通常基于机架感知策略选择最优节点组合[^3]。 3. **建立 Pipeline** 客户端与第一个 DataNode 建立连接,并通过它传递到第二个 DataNode,依此类推直到最后一个 DataNode 形成一个 pipeline。这个 pipeline 负责实际的数据流传输[^5]。 4. **数据入** 数据从客户端按照 packet 大小分块并通过 pipeline 流式传输至各个 DataNode。每个 packet 在发送前会被附加校验和以便后续验证其完整性。当某个 packet 成功复制到所有目标 DataNode 后,这些 DataNode 将返回确认消息给上游 node 直至上游 client 收集齐所有 acks 才能继续下一批 packets 的发送[^5]。 5. **关闭文件** 文件完成后,客户端通知 NameNode 关闭文件。此时需等待所有 blocks 的所有 packets 都得到确认回复后才会正式结束整个入流程并释放资源[^5]。 #### 读取流程 相对而言,HDFS 的读取过程较为简单,主要包括以下几个方面: 1. **打文件** 用户程序通过调用 `FileSystem.open()` 来访问所需文件的内容。同样地,这一动作最终转化为由 DFSClient 对应实现的具体逻辑并向 NameNode 提交查询请求定位首个 block 及关联 datanodes 地址信息[^2]。 2. **联系最近 DataNode 获取数据** 根据 name service 给定的结果挑选离自己较近或者负载较低的那个 source 始下载对应部分资料;如果当前 segment 已经完加载完毕,则重复上述步骤直至整份文档都被提取出来为止[^2]。 3. **错误处理机制** 如果在读过程中遇到失败情况比如网络中断等问题,则尝试切换其他可用副本重新拉取丢失片段从而保障服务连续性和可靠性[^2]。 ```java // Java Code Example for Reading a File in HDFS Configuration conf = new Configuration(); FileSystem fs = FileSystem.get(conf); Path path = new Path("/example/file.txt"); FSDataInputStream inputStream = fs.open(path); byte[] buffer = new byte[1024]; int bytesRead = inputStream.read(buffer); while (bytesRead > 0) { System.out.println(new String(buffer, 0, bytesRead)); bytesRead = inputStream.read(buffer); } inputStream.close(); fs.close(); ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值