Hadoop(HDFS、YARN、HBase、Hive和Spark等)默认端口表

本文详细介绍了Hadoop及HBase集群中各组件的默认端口配置及其用途,包括NameNode、DataNode、ResourceManager、NodeManager、JournalNode等关键服务的HTTP、RPC及相关端口说明。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


端口 作用
9000 fs.defaultFS,如:hdfs://172.25.40.171:9000
9001 dfs.namenode.rpc-addressDataNode会连接这个端口
50070 dfs.namenode.http-address
50470 dfs.namenode.https-address
50100 dfs.namenode.backup.address
50105 dfs.namenode.backup.http-address
50090 dfs.namenode.secondary.http-address,如:172.25.39.166:50090
50091 dfs.namenode.secondary.https-address,如:172.25.39.166:50091
50020 dfs.datanode.ipc.address
50075 dfs.datanode.http.address
50475 dfs.datanode.https.address
50010 dfs.datanode.addressDataNode的数据传输端口
8480 dfs.journalnode.rpc-address
8481 dfs.journalnode.https-address
8032 yarn.resourcemanager.address
8088 yarn.resourcemanager.webapp.addressYARNhttp端口
8090 yarn.resourcemanager.webapp.https.address
8030 yarn.resourcemanager.scheduler.address
8031 yarn.resourcemanager.resource-tracker.address
8033 yarn.resourcemanager.admin.address
8042 yarn.nodemanager.webapp.address
8040 yarn.nodemanager.localizer.address
8188 yarn.timeline-service.webapp.address
10020 mapreduce.jobhistory.address
19888 mapreduce.jobhistory.webapp.address
2888 ZooKeeper,如果是Leader,用来监听Follower的连接
3888 ZooKeeper,用于Leader选举
2181 ZooKeeper,用来监听客户端的连接
60010 hbase.master.info.portHMasterhttp端口
60000 hbase.master.portHMasterRPC端口
60030 hbase.regionserver.info.portHRegionServerhttp端口
60020 hbase.regionserver.portHRegionServerRPC端口
8080 hbase.rest.portHBase REST server的端口
10000 hive.server2.thrift.port
9083 hive.metastore.uris

### 回答1: Hadoop是一个由Apache基金会开源的大数据处理框架,包含多个组件,每个组件都有默认的端口号。下面是hadoop各组件的默认端口: 1. HDFSHadoop分布式文件系统): - NameNode端口:50070 - SecondaryNameNode端口:50090 - DataNode端口:50075 2. YARNHadoop资源调度系统): - Resource Manager Web界面:8088 - ResourceManager Scheduler端口:8030 - ResourceManager通信端口:8031 - Node Manager通信端口:8040 - Node Manager Web界面:8042 3. HBaseHadoop数据库): - Master端口:16000 - Master Web界面:16010 - RegionServer端口:16020 - RegionServer Web界面:16030 4. HiveHadoop数据仓库工具): - HiveServer2端口:10000 - JDBC服务端口:10001 - Web界面端口:9999 5. Spark(分布式计算框架): - Master Web界面:8080 - Master通信端口:7077 - Worker通信端口:8581 需要注意的是,这些端口都是默认设置,如果其中某些端口已被占用,需要修改配置文件中的端口号,并重启对应的服务。 ### 回答2: Hadoop是一个由Apache基金会开发的,用于分布式存储处理大数据的开源软件框架。它主要包括HDFSYARNHBaseHiveSpark等组件。这些组件在使用过程中,都会使用到一些默认端口。下面我来逐一介绍这些组件的默认端口。 1. HDFSHDFSHadoop的分布式文件系统,它用于存储海量的数据。它的默认端口是802050070。 - 8020:这是HDFS的RPC端口,用于处理与客户端的请求。 - 50070:这是HDFS的Web服务端口,用于向用户展示文件系统的整体状态。 2. YARNYARNHadoop的资源管理系统,可以让用户在一个集群中运行各种应用程序。它的默认端口是80888030。 - 8088:这是YARN的Web服务端口,用于向用户展示集群整体的状态。 - 8030:这是YARN的RPC端口,用于处理与客户端的请求。 3. HBaseHBase是非关系型数据库,主要用于存储海量的结构化数据。它的默认端口是218116010。 - 2181:这是ZooKeeper服务的默认端口HBase需要使用ZooKeeper来进行协调管理。 - 16010:这是HBase的Web服务端口,用于向用户展示集群整体的状态。 4. HiveHive是一种基于Hadoop的数据仓库工具,可以让用户将结构化数据映射到Hadoop上进行分析。它的默认端口是10000。 - 10000:这是Hive的Thrift服务端口,用于与客户端进行交互。 5. SparkSpark是一种快速而通用的计算引擎,可以支持Hadoop以外的数据处理。它的默认端口是70778080。 - 7077:这是Spark的Master的RPC端口,用于管理集群资源。 - 8080:这是Spark的Web服务端口,用于向用户展示集群整体的状态。 以上就是HadoopHDFSYARNHBaseHiveSpark等)默认端口,希望对大家了解Hadoop组件默认端口有所帮助。 ### 回答3: Hadoop是一个分布式计算框架,由HDFSYarnHBaseHiveSpark等组件构成。每个组件都有不同的功能默认端口。以下是Hadoop各组件的默认端口: 1. HDFS HDFSHadoop分布式文件系统,用于存储管理大规模数据集。默认端口是9000。 2. Yarn YarnHadoop的资源管理器,用于分配集群中的资源以及管理作业。默认端口是8088。 3. HBase HBase是一个非关系型数据库,用于存储海量数据并提供实时随机读写操作。默认端口是16010。 4. Hive Hive是一个数据仓库工具,用于处理大规模数据集。默认端口是10000。 5. Spark Spark是一个快速、通用的大数据处理引擎,主要用于数据处理机器学习。默认端口是7077。 以上是Hadoop各组件的默认端口,当然也可以根据配置文件进行修改。在使用Hadoop时,需要注意端口的使用防火墙配置,确保能够正常地访问使用各组件。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值