Hadoop、Spark启动报错Caused by: java.net.BindException: Cannot assign requested

上一篇笔记记录阿里云上搭建hadoop集群

下一篇笔记记录阿里云上搭建spark集群

先贴一下错误:


之前在本机上搭建的时候是没问题的,今天发现在阿里云上的两个服务器之上重新走一遍流程,结果发现namenode节点就是没有启动起来,后来查看log发现之前以为是50077端口被占用了

ss -tanlp|grep 50077

结果查看端口根本就没有被占用,重新查看log发现下面的提示

Caused by: java.net.BindException: Cannot assign requested address

最后查询才发现错误在于

阿里云服务器无法绑定公网IP的地址,即在 /etc/hosts 需要这样设置

内网IP地址  你的hostname
公网IP地址  别的hostname

也就是在搭建的时候需要将你的

主节点master节点里面的ip写成内网ip

重新启动就ok


在work节点中 启动spark的时候会报错:

java.net.BindException: 无法指定被请求的地址: Service 'sparkDriver' failed after 16 retries!

解决方法就是在work节点中 /etc/hosts 也需要这样设置

内网IP地址  当前work节点的hostname
公网IP地址  主节点master的hostname

2025-06-12 07:06:17,203 INFO org.apache.hadoop.yarn.server.resourcemanager.ResourceManager: Transitioning to standby state 2025-06-12 07:06:17,203 INFO org.apache.hadoop.yarn.server.resourcemanager.ResourceManager: Transitioned to standby state 2025-06-12 07:06:17,206 FATAL org.apache.hadoop.yarn.server.resourcemanager.ResourceManager: Error starting ResourceManager org.apache.hadoop.yarn.webapp.WebAppException: Error starting http server at org.apache.hadoop.yarn.webapp.WebApps$Builder.start(WebApps.java:443) at org.apache.hadoop.yarn.server.resourcemanager.ResourceManager.startWepApp(ResourceManager.java:1203) at org.apache.hadoop.yarn.server.resourcemanager.ResourceManager.serviceStart(ResourceManager.java:1312) at org.apache.hadoop.service.AbstractService.start(AbstractService.java:194) at org.apache.hadoop.yarn.server.resourcemanager.ResourceManager.main(ResourceManager.java:1507) Caused by: java.net.BindException: Port in use: 192.168.59.28:8099 at org.apache.hadoop.http.HttpServer2.constructBindException(HttpServer2.java:1213) at org.apache.hadoop.http.HttpServer2.bindForSinglePort(HttpServer2.java:1235) at org.apache.hadoop.http.HttpServer2.openListeners(HttpServer2.java:1294) at org.apache.hadoop.http.HttpServer2.start(HttpServer2.java:1149) at org.apache.hadoop.yarn.webapp.WebApps$Builder.start(WebApps.java:439) ... 4 more Caused by: java.net.BindException: Cannot assign requested address at sun.nio.ch.Net.bind0(Native Method) at sun.nio.ch.Net.bind(Net.java:433) at sun.nio.ch.Net.bind(Net.java:425) at sun.nio.ch.ServerSocketChannelImpl.bind(ServerSocketChannelImpl.java:223) at sun.nio.ch.ServerSocketAdaptor.bind(ServerSocketAdaptor.java:74) at org.eclipse.jetty.server.ServerConnector.openAcceptChannel(ServerConnector.java:351) at org.eclipse.jetty.server.ServerConnector.open(ServerConnector.java:319) at org.apache.hadoop.http.HttpServer2.bindListener(HttpServer2.java:1200) at org.apache.hadoop.http.HttpServer2.bindForSinglePort(HttpServer2.java:1231) ... 7 more 2025-06-12 07:06:17,212 INFO org.apache.hadoop.yarn.server.resourcemanager.ResourceManager: SHUTDOWN_MSG: /************************************************************ SHUTDOWN_MSG: Shutting down ResourceManager at guojingze/127.0.1.1 ************************************************************/ 876,1 Bot
06-13
启动hive失败[root@likexin bin]# ./hive --service metastore & [2] 17255 [root@likexin bin]# 2025-06-19 10:51:43: Starting Hive Metastore Server SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/module/hive/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/module/hadoop-3.1.4/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] org.apache.thrift.transport.TTransportException: Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083. at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:109) at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:91) at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:87) at org.apache.hadoop.hive.metastore.utils.SecurityUtils.getServerSocket(SecurityUtils.java:253) at org.apache.hadoop.hive.metastore.HiveMetaStore.startMetaStore(HiveMetaStore.java:8968) at org.apache.hadoop.hive.metastore.HiveMetaStore.main(HiveMetaStore.java:8843) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.util.RunJar.run(RunJar.java:318) at org.apache.hadoop.util.RunJar.main(RunJar.java:232) Caused by: java.net.BindException: 地址已在使用 (Bind failed) at java.net.PlainSocketImpl.socketBind(Native Method) at java.net.AbstractPlainSocketImpl.bind(AbstractPlainSocketImpl.java:387) at java.net.ServerSocket.bind(ServerSocket.java:375) at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:106) ... 11 more Exception in thread "main" org.apache.thrift.transport.TTransportException: Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083. at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:109) at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:91) at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:87) at org.apache.hadoop.hive.metastore.utils.SecurityUtils.getServerSocket(SecurityUtils.java:253) at org.apache.hadoop.hive.metastore.HiveMetaStore.startMetaStore(HiveMetaStore.java:8968) at org.apache.hadoop.hive.metastore.HiveMetaStore.main(HiveMetaStore.java:8843) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.util.RunJar.run(RunJar.java:318) at org.apache.hadoop.util.RunJar.main(RunJar.java:232) Caused by: java.net.BindException: 地址已在使用 (Bind failed) at java.net.PlainSocketImpl.socketBind(Native Method) at java.net.AbstractPlainSocketImpl.bind(AbstractPlainSocketImpl.java:387) at java.net.ServerSocket.bind(ServerSocket.java:375) at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:106) ... 11 more
最新发布
06-20
### Hadoop 中 `java.net.BindException` 错误分析 在分布式计算环境中,Hadoop 集群可能会遇到 `java.net.BindException: Cannot assign requested address` 的错误。此问题表明尝试绑定到特定地址和端口失败。 #### 原因解析 该错误可能由多种因素引起: - **配置不匹配**:如果主机名与实际 IP 地址不符,则可能导致此类错误发生[^3]。 - **网络接口冲突**:当存在多个网络适配器时,程序可能选择了错误的网络接口来监听服务请求[^4]。 - **防火墙或安全组设置不当**:某些情况下,云平台上的虚拟机默认的安全策略会阻止应用程序访问指定端口[^2]。 #### 解决方法 针对上述原因,可以采取如下措施解决问题: 1. **验证并修正配置文件** 确保所有节点中的 `/etc/hosts` 文件正确映射了各节点名称与其内部 IP 地址之间的关系,并且这些信息需保持一致。对于 Hadoop 而言,在核心站点配置 (`core-site.xml`) 和命名空间配置 (`hdfs-site.xml`) 中定义的服务 URL 应指向有效的主机名或 IP 地址。 ```xml <configuration> <!-- core-site.xml --> <property> <name>fs.defaultFS</name> <value>hdfs://node01:9000</value> </property> <!-- hdfs-site.xml --> <property> <name>dfs.namenode.http-address</name> <value>node01:50070</value> </property> </configuration> ``` 2. **检查网络连接状态** 确认每台机器能够通过其设定的名字相互解析对方的真实 IP 地址,并能正常通信。可以通过命令行工具如 `ping`, `nslookup` 或者 `dig` 来测试连通性和 DNS 解析情况。 3. **调整防火墙规则和服务端口权限** 允许必要的入站流量到达目标端口号(例如 NameNode 默认使用的 8020, DataNodes 使用的 50010)。如果是基于云计算环境部署的话,请记得更新相应的安全组规则以开放所需端口范围内的访问权限。 4. **重启相关服务** 完成以上更改之后,建议停止整个集群再重新启动它,以便使新的参数生效。具体操作可参照官方文档指南执行相应指令集。 ---
评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

zhangvalue

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值