Hadoop知识点总结

之前自己在慕课网在线学习了关于hadoop的初步知识,在此记录一下:

hadoop主要是由两部分构成:1、HDFS,负责存储,为分布式文件系统;2、MapReduce,是并行处理框架,用于实现任务的分解和调度。

hadoop的优势:1、高扩展:通过添加硬件来实现性能的提升,扩充容量。2、低成本:只需要普通PC机即可,不需高端硬件。3、成熟的生态圈:周边开源工具丰富:有Hive、HBase(其中Hive是把SQL查询转换为MapReduce任务执行,HBase则是分布式数据库)。

查看Hadoop的文件系统目录:hadoop fs-ls(新版的为dfs fs-ls)

hadoop中主要有两种结点类型:

NameNode:管理节点,用于存放文件元数据,其中包括1、文件与数据块的映射表;2、数据块与数据节点的映射表。

DataNode:工作节点,用于存放真正的数据块。

默认每个数据块有3个副本a,b,c,其中a和b放在同一个机架上的不同节点上,c放在不同机架上的某个节点上。这样做是为了防止某DataNode或者某机架损坏后,可以从其他DataNode中得到副本,用于恢复。

心跳检测:DataNode会定期向NameNode发送心跳消息,NameNode好确定某时段内哪些DataNode处于Active状态。

二级NameNode(SecondNameNode):是NameNode的替换副本,定期同步元数据映像文件和修改日志,若NameNode损坏失效,则二级NameNode将代替。

HDFS读文件的流程:1、客户端向NameNode发请求;2、NameNode将该文件的数据块所在的DataNode位置返回给客户端;3、客户端向相应的DataNode读文件。

HDFS写文件的流程:1、客户端将文件分块(分为多个数据块);2、NameNode为客户端分配DataNode;3、客户端将第一个数据块写入DataNode;4、传递式复制该数据块到不同的DataNode和不同的机架上;5、客户端开始写入第二个数据块。。。。6、待所有数据块写完之后,给NameNode更新元数据。

HDFS的特点:1、数据冗余,硬件容错。2、流式的数据访问(写一次,读多次,无法随机修改,只能删了原来的块,重新追加写块);3、适合存储大文件(若是小文件,则NameNode的元数据负载量太大)。

本地文件上传到HDFS:  hadoop fs -put  文件名  HDFS的存放目录

从HDFS上下载文件:hadoop fs -get  文件名  本地存放目录

查看文件系统的所有信息:hadoop dfsadmin -report

hadoop中,MapReduce和HDFS都有通信的需求,所以需要对通信的对象进行序列化,Hadoop没有采用Java的序列化,而是使用自己定义的Writable接口,该接口定义了两个方法write和readFields,分别为把对象序列化和反序列化。

Hadoop2.0:新机制:yarn。

Jobcracker在分配map任务时,会考虑数据的本地化因素。选取一个距离其输入分片文件最近的tasktracker。最理想的情况下,任务是数据本地化的(即任务运行在输入分片所在的节点上),或者其次是任务运行在输入分片所在的同一机架上。但是对于reduce任务,jabtracker只从待运行的reduce任务列表中选取下一个来执行,不会考虑数据的本地化。

MapReduce1中,tasktrackers会设置固定数量的槽。每个任务在一个槽上运行,槽有最大内存分配限制,导致当任务使用较少内存时无法充分利用内存(比如该任务只用了一个槽的1/10,那剩下的9/10就浪费了,其他等待的任务不能使用这些未使用的内存)以及忧郁任务不能获取足够内存而导致作业失败。而在MapReduce2中的yarn中,资源分为更细的粒度,应用程序可以请求最小到最大限制范围的任意最小值倍数的内存容量。

任务执行:首先将任务需要的资源本地化,包括作业的jar文件,配置文件以及所有来自分布式缓存的文件(这些都在HDFS上)。最后,运行map任务或者reduce任务。

作业的调度:

MapReduce1:1、默认是基于队列的FIFO调度器。2、公平调度器:每个用户有自己的作业池,支持抢占机制。提交作业数较多的用户,不会因此而获得更多的集群资源。如果一个池在特定的一段时间内未能公平共享资源,就会中止运行池中得到过多资源的任务,把空出来的任务槽让给运行资源不足的作业池。3、容量调度器:每个队列内部,采用FIFO方式(考虑优先级)

其中2和3的区别:3是队列内部采用FIFO,2则是强调池内公平共享,使运行的作业共享池的资源。

map输出文件位于运行map任务的tasktracker的本地磁盘。

map任务的数量等于输入文件被划分为块的数量。reduce的数量等于paritioner分区的数量。

默认的partitioner是HashPartitioner,它对每条记录的键进行哈希操作以决定该记录应该属于哪个分区,每个分区对应一个reduce任务。

JobTracker的角色:1、任务调度;2、分配任务给task,监控任务执行制度(tasktracker会定时给Jobtracker汇报);3、监控Tasktracker的状态。

Tasktracker的角色:1、执行任务;2、向JobTracker汇报任务状态。

MapReduce的容错机制:1、重复执行(默认4次);2、推测执行。

### Hadoop核心技术概念与知识点总结 #### 1. Hadoop版本及其核心组件 Hadoop分为多个版本,其中Hadoop 1.x 和 Hadoop 2.x 是两个重要的阶段。 - **Hadoop 1.x 组成**: 主要由HDFS (分布式文件系统) 和 MapReduce (离线并行计算框架) 构成[^1]。 - **Hadoop 2.x 组成**: 在原有基础上增加了YARN (Yet Another Resource Negotiator),负责作业调度与集群资源管理。 #### 2. 各核心组件的功能描述 - **HDFS (Highly Distributed File System)**: 提供高可靠性、高吞吐量的分布式文件存储能力。其架构为主从模式,主节点为NameNode,从节点为DataNode[^2]。 - NameNode 负责管理元数据以及维护整个文件系统的命名空间。 - DataNode 则负责实际的数据块存储和读取操作。 - **MapReduce**: 这是一个编程模型,用于大规模数据集的并行处理。它通过Map(映射)和Reduce(规约)两个阶段完成复杂的计算任务。 - **YARN**: 它引入了全局资源管理和调度机制,使得同一个集群上能够运行多种不同类型的应用程序而无需担心资源争抢问题。 - **Common**: 此模块包含了支持上述三个主要子项目所需的通用库和其他实用工具函数集合。 #### 3. 集群初始化过程中的重要变化 首次启动Hadoop集群时会发生如下几个显著的变化: - Datanodes会在指定路径`${hadoop.tmp.dir}/dfs/data`下创建用于存放数据块的实际物理位置; - Namenode将在`${hadoop.tmp.dir}/dfs/name`目录新增一个名为edits的日志文件用来记录所有的修改动作; - 整个环境中还会自动生成logs文件夹来追踪各个守护进程的状态信息以便后续排查可能存在的异常情况[^3]。 #### 4. 文件读写的内部工作流程 对于客户端(Client)而言,在HDFS之上执行任何关于数据的操作都遵循特定的原则——要么是从远程获取已存在资料副本(read), 要么就是向目标地址上传新素材(write)[^4]: - 当进行写入(write)活动期间,HDFS会先将待传输的大规模文档分割成为若干个小片段(blocks); 接着这些碎片会被复制多份分散存放到不同机器上面以增强容错性和可用度. - 对于检索行为来说,则是依据预设好的寻址策略定位到具体哪个Datanode持有请求的目标区块(Block),之后再逐步拉回所需部分直至全部下载完毕为止. #### 5. 名称节点(NameNode)的关键职责 Namenode承担起协调整个体系运转的核心角色之一,主要包括但不限于以下几个方面的工作内容: - 维护文件同它们所对应的磁盘分区列表之间的关联性(file-block mapping); - 记录哪些具体的服务器实例正保管着每一个独立单元(block instance)(data-node block mapping). 上述两项联系分别被持久化至fsimage静态镜像快照以及动态更新增量日志edit logs之中; 只有当服务重启之时才会重新加载进内存环境里去.[^5] ```python # 示例代码展示如何连接HDFS并列出根目录下的所有文件 from hdfs import InsecureClient client = InsecureClient('http://localhost:9870', user='hadoop') files = client.list('/') print(files) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值