HDFS写数据流

本文详细阐述了大数据环境下文件上传过程,涉及NameNode的权限检查、文件切分、DataNode节点分配及数据校验。重点描述了Client与NameNode、DataNodes之间的交互,以及如何确保数据一致性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述

1、跟NameNode通信请求上传文件,NameNode检查目标文件是否已经存在,父目录是否已经存在

2、NameNode返回是否可以上传

3、Client先对文件进行切分,请求第一个block该传输到哪些DataNode服务器上

4、NameNode返回3个DataNode服务器DataNode 1,DataNode 2,DataNode 3

5、Client请求3台中的一台DataNode 1上传数据,DataNode 1收到请求会继续调用DataNode 2,然后DataNode 2调用DataNode 3,将整个pipeline建立完成,然后逐级返回客户端

6、Client开始往DataNode 1上传第一个block,以pocket为单位。写入的时候DataNode会进行数据校验,它并不是通过一个packet进行一次校验而是以chunk为单位进行校验。DataNode 1收到一个packet就会传给DataNode 2,DataNode 2传给DataNode 3,DataNode 1每传一个pocket会放入一个应答队列等待应答

7、当一个block传输完成之后,Client再次请求NameNode上传第二个block的服务器.
21大数据一班于泽

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值