hadoop知识点总结


HDFS
读流程
filesystem类是一个抽象类,其实现类是distributedfilesystem,打开文件时调用其open方法,DFSclient通过rpc协议获取namenode的代理对象,得到块的信息,返回FSdatainputstream对象,通过其read方法连接到datanode读取数据,数据读取完毕时关闭FSdatainputstream。
写流程
写入文件时调用create方法,DFSclient通过rpc协议获取namenode的代理对象,创建块的信息,返回FSdataoutputstream对象,通过其write方法将数据分成数据包并写入datanode的pipeline,数据从一个datanode传输到另一个,当数据写入完成后返回确认信息,然后进行下一个块的写入,所有数据写入完成后关闭FSdataoutputstream。


MR
shuffle原理、优化
优化环形内存缓冲区大小、阈值、排序文件时的个数(减少对磁盘的读写)、reduce端并行拷贝的数量。

map、reduce数目
map数目由inputsplit的数目决定,在getinputsplit中会以默认的块大小128m对文件进行逻辑分割,产生一个个的inputsplit,可以通过修改splitsize控制产生的数目,可以通过FileInputFormat.setMinInputSplitSize或者FileInputFormat.setMaxInputSplitSize来设置。

reduce数目由分区数确定,默认为一个分区,当需要多个分区时,可以设置setNumReduceTasks,并重写getPartition方法。

yarn
job提交过程


### Hadoop核心技术概念与知识点总结 #### 1. Hadoop版本及其核心组件 Hadoop分为多个版本,其中Hadoop 1.x 和 Hadoop 2.x 是两个重要的阶段。 - **Hadoop 1.x 组成**: 主要由HDFS (分布式文件系统) 和 MapReduce (离线并行计算框架) 构成[^1]。 - **Hadoop 2.x 组成**: 在原有基础上增加了YARN (Yet Another Resource Negotiator),负责作业调度与集群资源管理。 #### 2. 各核心组件的功能描述 - **HDFS (Highly Distributed File System)**: 提供高可靠性、高吞吐量的分布式文件存储能力。其架构为主从模式,主节点为NameNode,从节点为DataNode[^2]。 - NameNode 负责管理元数据以及维护整个文件系统的命名空间。 - DataNode 则负责实际的数据块存储和读取操作。 - **MapReduce**: 这是一个编程模型,用于大规模数据集的并行处理。它通过Map(映射)和Reduce(规约)两个阶段完成复杂的计算任务。 - **YARN**: 它引入了全局资源管理和调度机制,使得同一个集群上能够运行多种不同类型的应用程序而无需担心资源争抢问题。 - **Common**: 此模块包含了支持上述三个主要子项目所需的通用库和其他实用工具函数集合。 #### 3. 集群初始化过程中的重要变化 首次启动Hadoop集群时会发生如下几个显著的变化: - Datanodes会在指定路径`${hadoop.tmp.dir}/dfs/data`下创建用于存放数据块的实际物理位置; - Namenode将在`${hadoop.tmp.dir}/dfs/name`目录新增一个名为edits的日志文件用来记录所有的修改动作; - 整个环境中还会自动生成logs文件夹来追踪各个守护进程的状态信息以便后续排查可能存在的异常情况[^3]。 #### 4. 文件读写的内部工作流程 对于客户端(Client)而言,在HDFS之上执行任何关于数据的操作都遵循特定的原则——要么是从远程获取已存在资料副本(read), 要么就是向目标地址上传新素材(write)[^4]: - 当进行写入(write)活动期间,HDFS会先将待传输的大规模文档分割成为若干个小片段(blocks); 接着这些碎片会被复制多份分散存放到不同机器上面以增强容错性和可用度. - 对于检索行为来说,则是依据预设好的寻址策略定位到具体哪个Datanode持有请求的目标区块(Block),之后再逐步拉回所需部分直至全部下载完毕为止. #### 5. 名称节点(NameNode)的关键职责 Namenode承担起协调整个体系运转的核心角色之一,主要包括但不限于以下几个方面的工作内容: - 维护文件同它们所对应的磁盘分区列表之间的关联性(file-block mapping); - 记录哪些具体的服务器实例正保管着每一个独立单元(block instance)(data-node block mapping). 上述两项联系分别被持久化至fsimage静态镜像快照以及动态更新增量日志edit logs之中; 只有当服务重启之时才会重新加载进内存环境里去.[^5] ```python # 示例代码展示如何连接HDFS并列出根目录下的所有文件 from hdfs import InsecureClient client = InsecureClient('http://localhost:9870', user='hadoop') files = client.list('/') print(files) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值