hadoop生态系统的端口

本文详细解析了Hadoop生态系统中各个组件所使用的端口,包括系统端口、WebUI端口、内部通信端口、相关产品端口、YARN默认端口以及第三方产品端口。同时介绍了端口配置参数、协议、用途及安全访问方式。

hadoop生态系统的端口

hadoop系统部署时用到不少端口。有的是Web UI所使用的,有的是内部通信所使用的,有的是监控所使用的。实际系统中可能用于防火墙的端口设计。一些内部通信用的端口可能也需要外部能访问。如两个集群的数据对拷。

1.系统

8080,80 用于tomcat和apache的端口。

22 ssh的端口

2.Web UI

用于访问和监控Hadoop系统运行状态

Daemon缺省端口配置参数
HDFSNamenode50070dfs.http.address
Datanodes50075dfs.datanode.http.address
Secondarynamenode50090dfs.secondary.http.address
Backup/Checkpoint node*50105dfs.backup.http.address
MRJobracker50030mapred.job.tracker.http.address
Tasktrackers50060mapred.task.tracker.http.address
HBaseHMaster60010hbase.master.info.port
HRegionServer60030hbase.regionserver.info.port
* hadoop 0.21以后代替secondarynamenode .

3.内部端口

Daemon缺省端口配置参数协议用于
Namenode9000fs.default.nameIPC: ClientProtocolFilesystem metadata operations.
Datanode50010dfs.datanode.addressCustom Hadoop Xceiver: DataNodeand DFSClientDFS data transfer
Datanode50020dfs.datanode.ipc.addressIPC:InterDatanodeProtocol,ClientDatanodeProtocol
ClientProtocol
Block metadata operations and recovery
Backupnode50100dfs.backup.address同 namenodeHDFS Metadata Operations
Jobtracker9001mapred.job.trackerIPC:JobSubmissionProtocol,InterTrackerProtocolJob submission, task tracker heartbeats.
Tasktracker127.0.0.1:0*mapred.task.tracker.report.addressIPC:TaskUmbilicalProtocol和 child job 通信
* 绑定到未用本地端口

4.相关产品端口

产品服务缺省端口参数范围协议说明
HBase

Master60000hbase.master.portExternalTCPIPC
Master60010hbase.master.info.portExternalTCPHTTP
RegionServer60020hbase.regionserver.portExternalTCPIPC
RegionServer60030hbase.regionserver.info.portExternalTCPHTTP
HQuorumPeer2181hbase.zookeeper.property.clientPortTCPHBase-managed ZK mode
HQuorumPeer2888hbase.zookeeper.peerportTCPHBase-managed ZK mode
HQuorumPeer3888hbase.zookeeper.leaderportTCPHBase-managed ZK mode
REST Service8080hbase.rest.portExternalTCP
ThriftServer9090Pass -p <port> on CLIExternalTCP
Avro server9090Pass –port <port> on CLIExternalTCP
Hive Metastore9083ExternalTCP
HiveServer10000ExternalTCP
SqoopMetastore16000sqoop.metastore.server.portExternalTCP
ZooKeeper

Server2181clientPortExternalTCPClient port
Server2888X in server.N=host:X:YInternalTCPPeer
Server3888Y in server.N=host:X:YInternalTCPPeer
Server3181X in server.N=host:X:YInternalTCPPeer
Server4181Y in server.N=host:X:YInternalTCPPeer
Hue

Server8888ExternalTCP
Beeswax Server8002Internal
Beeswax Metastore8003Internal
Oozie Oozie Server11000OOZIE_HTTP_PORT in oozie-env.shExternalTCPHTTP
Oozie Server11001OOZIE_ADMIN_PORT in oozie-env.shlocalhostTCPShutdown port

5.YARN(Hadoop 2.0)缺省端口

产品服务缺省端口配置参数协议
Hadoop YARN

ResourceManager8032yarn.resourcemanager.addressTCP
ResourceManager8030yarn.resourcemanager.scheduler.addressTCP
ResourceManager8031yarn.resourcemanager.resource-tracker.addressTCP
ResourceManager8033yarn.resourcemanager.admin.addressTCP
ResourceManager8088yarn.resourcemanager.webapp.addressTCP
NodeManager8040yarn.nodemanager.localizer.addressTCP
NodeManager8042yarn.nodemanager.webapp.addressTCP
NodeManager8041yarn.nodemanager.addressTCP
MapReduce JobHistory Server10020mapreduce.jobhistory.addressTCP
MapReduce JobHistory Server19888mapreduce.jobhistory.webapp.addressTCP

6.第三方产品端口

ganglia用于监控Hadoop和HBase运行情况。kerberos是一种网络认证协议,相应软件由麻省理工开发。

产品服务安全缺省端口协议访问配置
Ganglia ganglia-gmond8649UDP/TCPInternal
ganglia-web80TCPExternal通过 Apache httpd
Kerberos KRB5 KDC ServerSecure88UDP*/TCPExternal[kdcdefaults] 或 [realms]段下的kdc_ports 和 kdc_tcp_ports
KRB5 Admin ServerSecure749TCPInternalKdc.conf 文件:[realms]段kadmind_port

*缺省UDP协议

hadoop生态系统的端口

hadoop系统部署时用到不少端口。有的是Web UI所使用的,有的是内部通信所使用的,有的是监控所使用的。实际系统中可能用于防火墙的端口设计。一些内部通信用的端口可能也需要外部能访问。如两个集群的数据对拷。

1.系统

8080,80 用于tomcat和apache的端口。

22 ssh的端口

2.Web UI

用于访问和监控Hadoop系统运行状态

Daemon缺省端口配置参数
HDFSNamenode50070dfs.http.address
Datanodes50075dfs.datanode.http.address
Secondarynamenode50090dfs.secondary.http.address
Backup/Checkpoint node*50105dfs.backup.http.address
MRJobracker50030mapred.job.tracker.http.address
Tasktrackers50060mapred.task.tracker.http.address
HBaseHMaster60010hbase.master.info.port
HRegionServer60030hbase.regionserver.info.port
* hadoop 0.21以后代替secondarynamenode .

3.内部端口

Daemon缺省端口配置参数协议用于
Namenode9000fs.default.nameIPC: ClientProtocolFilesystem metadata operations.
Datanode50010dfs.datanode.addressCustom Hadoop Xceiver: DataNodeand DFSClientDFS data transfer
Datanode50020dfs.datanode.ipc.addressIPC:InterDatanodeProtocol,ClientDatanodeProtocol
ClientProtocol
Block metadata operations and recovery
Backupnode50100dfs.backup.address同 namenodeHDFS Metadata Operations
Jobtracker9001mapred.job.trackerIPC:JobSubmissionProtocol,InterTrackerProtocolJob submission, task tracker heartbeats.
Tasktracker127.0.0.1:0*mapred.task.tracker.report.addressIPC:TaskUmbilicalProtocol和 child job 通信
* 绑定到未用本地端口

4.相关产品端口

产品服务缺省端口参数范围协议说明
HBase

Master60000hbase.master.portExternalTCPIPC
Master60010hbase.master.info.portExternalTCPHTTP
RegionServer60020hbase.regionserver.portExternalTCPIPC
RegionServer60030hbase.regionserver.info.portExternalTCPHTTP
HQuorumPeer2181hbase.zookeeper.property.clientPortTCPHBase-managed ZK mode
HQuorumPeer2888hbase.zookeeper.peerportTCPHBase-managed ZK mode
HQuorumPeer3888hbase.zookeeper.leaderportTCPHBase-managed ZK mode
REST Service8080hbase.rest.portExternalTCP
ThriftServer9090Pass -p <port> on CLIExternalTCP
Avro server9090Pass –port <port> on CLIExternalTCP
Hive Metastore9083ExternalTCP
HiveServer10000ExternalTCP
SqoopMetastore16000sqoop.metastore.server.portExternalTCP
ZooKeeper

Server2181clientPortExternalTCPClient port
Server2888X in server.N=host:X:YInternalTCPPeer
Server3888Y in server.N=host:X:YInternalTCPPeer
Server3181X in server.N=host:X:YInternalTCPPeer
Server4181Y in server.N=host:X:YInternalTCPPeer
Hue

Server8888ExternalTCP
Beeswax Server8002Internal
Beeswax Metastore8003Internal
Oozie Oozie Server11000OOZIE_HTTP_PORT in oozie-env.shExternalTCPHTTP
Oozie Server11001OOZIE_ADMIN_PORT in oozie-env.shlocalhostTCPShutdown port

5.YARN(Hadoop 2.0)缺省端口

产品服务缺省端口配置参数协议
Hadoop YARN

ResourceManager8032yarn.resourcemanager.addressTCP
ResourceManager8030yarn.resourcemanager.scheduler.addressTCP
ResourceManager8031yarn.resourcemanager.resource-tracker.addressTCP
ResourceManager8033yarn.resourcemanager.admin.addressTCP
ResourceManager8088yarn.resourcemanager.webapp.addressTCP
NodeManager8040yarn.nodemanager.localizer.addressTCP
NodeManager8042yarn.nodemanager.webapp.addressTCP
NodeManager8041yarn.nodemanager.addressTCP
MapReduce JobHistory Server10020mapreduce.jobhistory.addressTCP
MapReduce JobHistory Server19888mapreduce.jobhistory.webapp.addressTCP

6.第三方产品端口

ganglia用于监控Hadoop和HBase运行情况。kerberos是一种网络认证协议,相应软件由麻省理工开发。

产品服务安全缺省端口协议访问配置
Ganglia ganglia-gmond8649UDP/TCPInternal
ganglia-web80TCPExternal通过 Apache httpd
Kerberos KRB5 KDC ServerSecure88UDP*/TCPExternal[kdcdefaults] 或 [realms]段下的kdc_ports 和 kdc_tcp_ports
KRB5 Admin ServerSecure749TCPInternalKdc.conf 文件:[realms]段kadmind_port

*缺省UDP协议

Hadoop生态系统中,Zookeeper是一个开源的分布式协调服务,它可以为分布式应用程序提供高效且可靠的协调服务。Zookeeper主要用于解决分布式应用程序中的一些常见问题,例如分布式锁、分布式配置管理、分布式消息队列等。在Hadoop中,Zookeeper通常用于管理Hadoop集群中的NameNode和ResourceManager的状态信息。 关于Zookeeper的部署,可以分为单节点和集群部署两种方式。单节点部署比较简单,只需要在一台机器上安装Zookeeper并启动即可。而集群部署则需要在多台机器上安装Zookeeper,并通过配置文件将它们组成一个Zookeeper集群。 以下是Zookeeper集群部署的步骤: 1. 在每台机器上安装Zookeeper,并确保它们的版本相同。 2. 在每台机器上创建一个Zookeeper数据目录,用于存储Zookeeper的数据。 3. 在每台机器上创建一个Zookeeper配置文件,例如zoo.cfg,并在其中指定Zookeeper集群的配置信息,例如集群中的机器列表、数据目录等。 4. 在每台机器上启动Zookeeper服务,并指定它们的配置文件。 5. 在其中一台机器上启动Zookeeper客户端,并使用它来管理Zookeeper集群。 以下是一个示例Zookeeper配置文件zoo.cfg的内容: ```shell tickTime=2000 initLimit=10 syncLimit=5 dataDir=/var/lib/zookeeper clientPort=2181 server.1=hadoop130:2888:3888 server.2=hadoop131:2888:3888 server.3=hadoop132:2888:3888 ``` 其中,tickTime表示Zookeeper中的基本时间单位,initLimit和syncLimit表示Zookeeper中的超时时间,dataDir表示Zookeeper的数据目录,clientPort表示Zookeeper客户端连接的端口号,server.x表示Zookeeper集群中的机器列表。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值