hadoop——常用端口号——常用的配置文件,3.x与2.x区别

本文详细介绍了Hadoop 3.x和2.x版本中HDFS NameNode的内部端口(8020/9000/9820/50070)、用户查询端口(9870/50070),YARN任务查看端口(8088),以及各个版本的核心配置文件如core-site.xml、hdfs-site.xml、yarn-site.xml和mapred-site.xml。同时涵盖了历史服务器的端口19888。

常用端口号

hadoop3.x

HDFS NameNode内部通常端口:8020/9000/9820
HDFS NameNode对用户的查询端口:9870
Yarn 查看任务运行情况:8088
历史服务器:19888

hadoop2.x

HDFS NameNode内部通常端口:8020/9000
HDFS NameNode对用户的查询端口:50070
Yarn 查看任务运行情况:8088
历史服务器:19888

常用的配置文件

hadoop3.x

core-site.xml
hdfs-site.xml
yarn-site.xml
mapred-site.xml
workers

hadoop2.x

core-site.xml
hdfs-site.xml
yarn-site.xml
mapred-site.xml
slaves

### Hadoop 3.x 安装指南 Hadoop 是一种分布式计算框架,用于处理大规模数据集。以下是关于 Hadoop 3.x 版本安装的相关说明。 #### 单节点环境配置 对于单节点测试或开发用途的 Hadoop 配置,可以参考官方文档中的指导[^3]。此部分主要涉及本地机器上的依赖项设置以及基本参数调整。通常情况下,在开始集群部署之前,建议先完成单机版的验证工作以确认所有必要的组件均已正确安装并正常运行[^2]。 #### 下载解压 获取最新稳定发布的 tarball 文件可以从 Apache 软件基金会官方网站下载页面找到对应链接地址;例如 `hadoop-3.x.x.tar.gz` 这样的压缩包形式发布出来之后会被放置于指定目录下如 `/home/user/` 中以便后续操作使用[^1]。 #### 环境变量设定 为了使命令行工具能够识别到 Hadoop 的位置及相关库路径,则需编辑用户的 shell profile 文件 (比如 `.bashrc`) 添加如下几条记录: ```bash export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 注意这里假设 JDK 已经被预先安裝好,并且版本满足最低需求标准之上——即 Java SE Development Kit 8 或更高版本[^3]。 #### 修改核心站点XML文件 接下来要做的就是针对几个重要的 XML 格式的配置档进行自定义更改来适应特定应用场景下的需求: - **core-site.xml**: 设置默认FS URI 其他全局属性. - **hdfs-site.xml**: 规定 NameNode 数据存储地点以及其他 DFS 参数 . - **mapred-site.xml**: MapReduce 框架专属选项定义处所位于该档案里头. - **yarn-site.xml**: ResourceManager 及 NodeManager 行为控制在此实现. 具体样例可参阅官网给出的例子作为模板来进行修改适配过程. #### 启动服务进程 当所有的前期准备工作都已完成之后就可以依次启动各个子系统的守护线程了。通过执行以下脚本来达成目的: ```bash $HADOOP_HOME/sbin/start-dfs.sh # Start Distributed File System services $HADOOP_HOME/sbin/start-yarn.sh # Start Yet Another Resource Negotiator service ``` 最后可以通过浏览器访问 Web UI 来查看当前状态,默认端口号分别是 Namenode(50070), Resourcemanager(8088)[^3]。 --- ### 示例代码片段 - WordCount 执行流程演示 一旦整个平台搭建完毕后即可尝试简单的例子程序检验成果如何。下面展示了一个典型的 word count 应用案例调用方式[^4]: ```bash $hadoop jar $HADOOP_PREFIX/share/hadoop/mapreduce/hadoop-mapreduce-examples-[version].jar wordcount /input/path /output/path ``` 其中 `[version]` 替换为你实际使用的 hadoop 发布号字符串值。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值