写流程
hdfs dfs -ls /hdfs文件系统的根目录,而不是Linuxhdfs dfs -ls hdfs://hadoop001:9000/
hdfs://hadoop002:9000来自core-site.xml中的配置
hdfs dfs -ls读取当前命令操作的用户的路径 /user/用户/
执行hdfs dfs -ls是在hadoop用户下操作的
执行hdfs dfs -ls /user/hadoop检查


hdfs dfs -put NOTICE.txt /
1. Client(客户端)调用FileSystem.create(filePath),去与NN节点进行RPC通信,check该路径下的文件是否已经存在?
是否有权限创建该文件?
假如OK,就创建一个新的文件,但是不关联任何的block,返回一个FSDataOutputStream对象;

本文详细介绍了HDFS中文件写入的过程。从客户端通过FileSystem.create()与NameNode通信检查文件是否存在开始,如果不存在则创建文件并返回FSDataOutputStream。接着,客户端利用write()方法逐块写入数据,每个块会复制到多个DataNode,并通过ack packet确认副本完成。最后,文件写入完成后,客户端关闭输出流并通知NameNode文件写入成功。
最低0.47元/天 解锁文章
796

被折叠的 条评论
为什么被折叠?



