概述
在介绍hadoop集群的重要节点之前,先举一个简单的例子说明一下:
场景就是,我们有一个网站,网站中有很多用户,每个用户都有自己的信息和动态等,那么对于这些信息,我们网站的后台都是需要记录的。
怎么记录呢,直接就根据用户的标号,放在一个文件夹里吧,然后存在磁盘中(或者放在数据库里,都可以)

然后呢,随着时间的发展,用户的数量越来越多,我们后台的一个服务器里可能存不下这么多的数据,这个时候两种方式:
- 给磁盘扩容
- 加机器
如果我们给磁盘扩容的方式去处理,但是是不是需要考虑到我们一个服务器的处理能力,这样虽然可以在同一台机器中存储下来,这样就意味着服务器在找一个资源的时候,需要花费的时间变长了,因为分母变大了,他的效率就会有点小

采用加机器的方式,利用Nginx这些技术,将不同用户的信息存储在多个服务器中,至于来了一个用户,怎么确定他的信息在哪里,就需要看后端的算法怎么写的了 ,可以使用哈希,也可以使用自己定义的规则,但是一定要让第二次请求用户信息时,可以找到第一个存储的位置

但是这样还是有着一些问题,就比如我中间的一些用户信息存储在服务器A,但是某一段时间服务器A突然宕机了,那么就意味着服务器A暂时无法提供数据。
这样该怎么解决呢,hadoop分布式存储中的一系列机制,就确保了数据的稳定

他框架的核心就是:
- 海量数据提供存储的
HDFS - 提供计算的
MapReduce,他的主要工作就是从磁盘或者网络中读取数据,以及对数据进行计算,就是那些IO密集和CPU密集工作
分布式文件系统的结构
在我们的操作系统(linux,Windows)中,文件系统会把磁盘空间划分为一些块,叫做磁盘块,他的大小一般为 512 512 51

本文介绍了Hadoop分布式文件系统(HDFS)的结构,特别是块的概念,以及NameNode、SecondaryNameNode、DataNode、JobTracker和TaskTracker等重要节点的角色。HDFS通过块存储和多副本策略确保数据的稳定性和可用性,同时阐述了SecondaryNameNode的作用在于合并元数据和充当检查点,而非NameNode的备份。
最低0.47元/天 解锁文章





