第三部分:Apache Hadoop的重要组成

本文概述了Hadoop的核心组件HDFS(分布式文件系统)、MapReduce并行计算框架以及YARN资源管理框架。重点介绍了NameNode、DataNode、SecondaryNameNode的角色,以及Hadoop如何通过数据切割、复制和分布式存储来提高可靠性。同时,讲解了MapReduce的Map和Reduce阶段,以及YARN中的ResourceManager、NodeManager和ApplicationMaster的功能划分。
部署运行你感兴趣的模型镜像

一、Hadoop HDFS

        Hadoop Distribute File System 一个高可靠、高吞吐量的分布式文件存储系统。

        采用“分而治之”思想:
                比如100T数据,分:拆分--》数据切割,100T数据拆分为10G一个数据块由一个电脑节点存储这个数据块。

        数据切割、制作副本、分散存储

         一个大数据被切分成多个数据块,存储在多个DataNode上。
        NameNode(nn):存储文件的元数据,比如文件名、文件目录结构、文件属性(生成时间、副本数、文件权限),以及每个文件的块列表和块所在的DataNode等。
        DataNode(dn):在本地文件系统存储文件块数据,以及块数据的校验。
        SecondaryNameNode(2nn):辅助NameNode更好的工作,用来监控HDFS状态的辅助后台程序,每隔一段时间获取HDFS元数据快照。        

 二、Hadoop MapReduce

        一个分布式的离线并行计算框架。
        拆分任务、分散处理、汇整结果
        MapReduce计算 = Map阶段 + Reduce阶段
        
Map阶段就是“分”的阶段,并行处理输入数据。
        Reduce阶段就是“合”的阶段,对Map阶段结果进行汇总。

三、Hadoop Yarn

        作业调度与资源管理的框架。

        ResourceManager(rm):处理客户端的请求、启动/监控ApplicationMaster、监控NodeManager、资源分配与调度。
        NodeManager(nm):单节点上的资源管理、处理来自ResourceManager的命令、处理来自ApplicationMaster的命令。
        ApplicationMaster(am):数据切分、为应用程序分配资源,并分配给内部任务、任务监控与容错。(相当于rm的秘书~~)
        Container:对任务运行环境的抽象,封装了CPU、内存等多维资源以及环境变量、启动命令等任务运行的相关资源。
        总结:rm是老大,nm是小弟,am是计算任务专员。

四、Hadoop Common

        支持其他模块的工具模块(Configuration、RPC、序列化机制、日志操作)。

总结:
        复习还是很有作用的,第一遍听老师讲课记笔记时那种“陌生大于熟悉”的感觉变成了“熟悉大于陌生”,哈O(∩_∩)O哈哈~

您可能感兴趣的与本文相关的镜像

Python3.8

Python3.8

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值