HDFS写数据流程
- 首先客户端向NameNode发送请求
- NameNode收到请求并检查目录(检查文件所在路径和此文件是否在HDFS上存在)
- NameNode检查完毕后允许客户端上传
- 客户端向NameNode发送上传Block1的请求
- NameNode查询DateNode是否活跃和空间是否足够的信息,继而筛选
- 允许客户端上传Block1到DateNode1,DateNode2,DateNode3
- 然后客户端选择离自己最近的那个DateNode1发送请求
- 建立一个pipeline
- 客户端利用pipeline管道上传数据
- 所有DateNode都保存完数据后向客户端和NameNode发送上传完成的消息

HDFS数据写入流程详解
本文详细介绍了HDFS(Hadoop Distributed File System)中数据写入的过程,从客户端发起请求到NameNode,再到DataNode的pipeline建立和数据上传,揭示了HDFS的内部工作机制和数据冗余策略。
955

被折叠的 条评论
为什么被折叠?



