HDFS的数据读写流程

本文详细介绍了HDFS数据的读写流程。读流程中,客户端通过一系列操作从名称节点获取块的数据节点信息,再从数据节点读取数据。写流程里,客户端先与名称节点交互,检查并创建文件夹存储块信息,然后将数据分包流经管道写入数据节点。还提及了相关文件系统、输入流和输出流的父子类关系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

读流程

客户端------>DistributedFileSystem.open()------>FSDataInputStrean------>ClientProtocol.getBlockLocation()远程调用------>名称节点----------(返回块的数据节点,并排序)-------->DFSInputStream------>客户端------------(利用DFSInputStream.read())------------>数据节点------>关闭流与数据节点的连接------>DFSInputStrean------>ClientProtocol.getBlockLocation()远程调用------>名称节点----------(返回块的数据节点,并排序)-------->DFSInputStream------>客户端------------(利用DFSInputStream.read())------------>数据节点------>关闭流与数据节点的连接------>……------>关闭流.close()

HDFS读数据的过程

写流程

客户端------>DistributedFileSystem.create()------>FSDataOutputStream------>RPC远程调用------>名称节点------(检查,创建文件夹存储块信息)------>DFSOutputStream------>客户端------(利用DFSOutputStream.write())------>(数据分包,放入流内部队列,申请数据节点,生成管道,流经管道)数据节点------(ACK Packet)------>客户端------(利用DFSOutputStream.write())------>(数据分包,放入流内部队列,申请数据节点,生成管道,流经管道)数据节点------(ACK Packet)------>客户端------>……------>关闭流.close(),并且调用ClientProtocol.complete()通知名称节点关闭文件(一开始创建的文件)
HDFS写数据的过程

两个文件系统
FileSystem 父类
DistributedFileSystem 子类

两个输入流

FSDataInputStream 父类
DFSInputStream 子类

两个输出流
FSDataOutputStream 父类
DFSOutputStream 子类

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值