HDFS文件读取、写入过程详解

本文详细介绍了HDFS的文件读取和写入过程。在读取时,客户端通过FileSystem的open()函数获取文件,元数据节点提供数据块信息,然后逐个数据节点读取数据。写入时,客户端调用create()创建文件,数据被分块并写入Data Queue,通过Pipeline在多个数据节点间复制。在数据传输过程中,HDFS具备容错机制,能处理节点故障。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

HDFS架构

-----------------------------

运行在廉价的硬件之上的、成本较低的、访问大型数据集、具有容错的特性、容错机制。HDFS是master/slaves架构,由一个名称节点以及多个数据节点构成。namenode负责namespace管理以及client的访问。内部文件被切块存储在数据节点的集合中。

 
NameNode(元数据节点)存放元数据(名称空间、副本数、权限、块列表、集群配置信息...),不包含数据节点。元数据节点将文件系统元数据存储在内存中。
DataNode(数据节点):真正存储数据的地方,以数据块为单位。默认数据块大小为128M。数据节点周期性的将所有存储块信息发送给元数据节点。客户端通过和NameNode节点沟通后,再向数据节点对数据读出或写入。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值