- hdfs被设计成能够在一个大集群中跨机器可靠地存储超大文件。它将每个文件存储成一系列的数据块,除了最后一个,所有的数据块都是同样大小的。
- 为了容错,文件的所有数据块都会有副本。每个文件的数据块大小和副本系数都是可配置的。
- hdfs的文件都是一次性写入的,并且严格要求在任何实收只能有一个写入者。
深入理解hdfs
最新推荐文章于 2024-10-10 02:47:07 发布
3257
836
1032

被折叠的 条评论
为什么被折叠?