Hadoop知识点总结!!!

Hadoop2.x详解:四大模块、端口配置与分布式搭建
这篇博客深入探讨了Hadoop2.x的四大核心模块,包括HDFS、MapReduce、YARN和Common,并详细列举了各组件的端口设置。此外,还详细介绍了Hadoop2.x的分布式环境搭建步骤,从Linux配置到Hadoop服务的启动。同时,讲解了HDFS与YARN的主要进程及其功能,以及MapReduce任务在YARN上的执行流程和五大过程,特别是shuffle阶段的细节。最后,讨论了自定义数据类型在MapReduce中的实现以及元数据的管理。

没什么好解释的,纯粹的干货分享。。。

Hadoop:
    1.Hadoop的四大模块:
        1.common:基础模块,用于支撑其他模块
        2.mapruedce:分布式计算框架
        3.YARN:分布式资源调度框架
        4.HDFS:分布式文件系统
        
    2.端口:
        1.HDFS:8082 webUI端口:8088
        2.YARN:8032 webUI端口:50070
        3.zookeeper:2181
        4.JobHistoryServer:19888
        
    3.Hadoop2.x分布式搭建的详细过程:
        一:linux相关:
            1.ip,网关,DNS
            2.hostname,本地域名解析映射(hosts)
            3.关闭防火墙,selinux
            4.ssh免密钥登陆
            5.ntp时间同步
            6.jdk配置
        二:Hadoop相关:
            1.上传,解压
            2.修改配置
                -》修改-evn.sh
                    hadoop、yarn、mapred
                -》core-site.xml
                    hdfs入口,临时文件目录
                -》hdfs-site.xml
   &n

### Hadoop核心技术概念与知识点总结 #### 1. Hadoop版本及其核心组件 Hadoop分为多个版本,其中Hadoop 1.x 和 Hadoop 2.x 是两个重要的阶段。 - **Hadoop 1.x 组成**: 主要由HDFS (分布式文件系统) 和 MapReduce (离线并行计算框架) 构成[^1]。 - **Hadoop 2.x 组成**: 在原有基础上增加了YARN (Yet Another Resource Negotiator),负责作业调度与集群资源管理。 #### 2. 各核心组件的功能描述 - **HDFS (Highly Distributed File System)**: 提供高可靠性、高吞吐量的分布式文件存储能力。其架构为主从模式,主节点为NameNode,从节点为DataNode[^2]。 - NameNode 负责管理元数据以及维护整个文件系统的命名空间。 - DataNode 则负责实际的数据块存储和读取操作。 - **MapReduce**: 这是一个编程模型,用于大规模数据集的并行处理。它通过Map(映射)和Reduce(规约)两个阶段完成复杂的计算任务。 - **YARN**: 它引入了全局资源管理和调度机制,使得同一个集群上能够运行多种不同类型的应用程序而无需担心资源争抢问题。 - **Common**: 此模块包含了支持上述三个主要子项目所需的通用库和其他实用工具函数集合。 #### 3. 集群初始化过程中的重要变化 首次启动Hadoop集群时会发生如下几个显著的变化: - Datanodes会在指定路径`${hadoop.tmp.dir}/dfs/data`下创建用于存放数据块的实际物理位置; - Namenode将在`${hadoop.tmp.dir}/dfs/name`目录新增一个名为edits的日志文件用来记录所有的修改动作; - 整个环境中还会自动生成logs文件夹来追踪各个守护进程的状态信息以便后续排查可能存在的异常情况[^3]。 #### 4. 文件读写的内部工作流程 对于客户端(Client)而言,在HDFS之上执行任何关于数据的操作都遵循特定的原则——要么是从远程获取已存在资料副本(read), 要么就是向目标地址上传新素材(write)[^4]: - 当进行写入(write)活动期间,HDFS会先将待传输的大规模文档分割成为若干个小片段(blocks); 接着这些碎片会被复制多份分散存放到不同机器上面以增强容错性和可用度. - 对于检索行为来说,则是依据预设好的寻址策略定位到具体哪个Datanode持有请求的目标区块(Block),之后再逐步拉回所需部分直至全部下载完毕为止. #### 5. 名称节点(NameNode)的关键职责 Namenode承担起协调整个体系运转的核心角色之一,主要包括但不限于以下几个方面的工作内容: - 维护文件同它们所对应的磁盘分区列表之间的关联性(file-block mapping); - 记录哪些具体的服务器实例正保管着每一个独立单元(block instance)(data-node block mapping). 上述两项联系分别被持久化至fsimage静态镜像快照以及动态更新增量日志edit logs之中; 只有当服务重启之时才会重新加载进内存环境里去.[^5] ```python # 示例代码展示如何连接HDFS并列出根目录下的所有文件 from hdfs import InsecureClient client = InsecureClient('http://localhost:9870', user='hadoop') files = client.list('/') print(files) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值