Hadoop格式化 From hu-hadoop1/192.168.11.11 to hu-hadoop2:8485 failed on connection exception: java.net....

本文记录了Hadoop集群在格式化过程中遇到连接拒绝错误的问题及解决方案。通过关闭相关进程和清理日志文件最终解决了格式化问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

192.168.11.12:8485: Call From hu-hadoop1/192.168.11.11 to hu-hadoop2:8485 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
at org.apache.hadoop.hdfs.qjournal.client.QuorumException.create(QuorumException.java:81)
at org.apache.hadoop.hdfs.qjournal.client.QuorumCall.rethrowException(QuorumCall.java:223)
at org.apache.hadoop.hdfs.qjournal.client.QuorumJournalManager.hasSomeData(QuorumJournalManager.java:232)
at org.apache.hadoop.hdfs.server.common.Storage.confirmFormat(Storage.java:884)
at org.apache.hadoop.hdfs.server.namenode.FSImage.confirmFormat(FSImage.java:171)
at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:937)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1379)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1504)
18/06/11 17:42:37 FATAL namenode.NameNode: Failed to start namenode.
org.apache.hadoop.hdfs.qjournal.client.QuorumException: Unable to check if JNs are ready for formatting. 1 successful responses:
192.168.11.11:8485: false
1 exceptions thrown:
192.168.11.12:8485: Call From hu-hadoop1/192.168.11.11 to hu-hadoop2:8485 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
at org.apache.hadoop.hdfs.qjournal.client.QuorumException.create(QuorumException.java:81)
at org.apache.hadoop.hdfs.qjournal.client.QuorumCall.rethrowException(QuorumCall.java:223)
at org.apache.hadoop.hdfs.qjournal.client.QuorumJournalManager.hasSomeData(QuorumJournalManager.java:232)
at org.apache.hadoop.hdfs.server.common.Storage.confirmFormat(Storage.java:884)
at org.apache.hadoop.hdfs.server.namenode.FSImage.confirmFormat(FSImage.java:171)
at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:937)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1379)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1504)
18/06/11 17:42:37 INFO util.ExitUtil: Exiting with status 1
18/06/11 17:42:37 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at hu-hadoop1/192.168.11.11

************************************************************/




是因为我前面开启一个进程,没有把它杀掉并把日志文件删除的原因。所以格式化一直不成功。

解决:

jps

杀掉所有进程,然后删除进程相关文件。然后在进行格式化。就可以了。。。

posted on 2018-06-11 19:12 meiLinYa 阅读( ...) 评论( ...) 编辑 收藏
看起来你遇到了Hadoop分布式文件系统(HDFS)之间通信的问题,具体表现为`Call From`主机到另一个主机的连接失败。这通常与网络设置、防火墙配置以及Hadoop守护进程的安全性有关。以下是可能的原因和解决方案: 报错原因: 1. **防火墙阻止**:如果主节点(hadoop1)的9000端口受到防火墙限制,导致其他节点无法连接。 2. **端口未开放**:即使防火墙允许,也可能是因为主节点的9000端口并未开启,用于接收客户端请求。 3. **远程访问权限**:即使端口开放,若设置了只允许本地连接,那么外部节点会收到拒绝连接。 报错解决步骤(简易版本)[^2]: 1. **检查防火墙设置**:确认主节点的防火墙是否允许来自其他节点的TCP连接,特别是9000端口。 ```shell sudo ufw allow from <slave_ip> to any port 9000 ``` 2. **启动Hadoop服务**:确保Hadoop在主节点上运行并且NameNode(可能是`hdfs namenode -format`后的结果)正在监听9000端口。 3. **修改配置**:检查`core-site.xml`或`hdfs-site.xml`中的`<dfs.http.address>`配置,确保允许远程访问。默认应为`localhost`,需改为全网地址如`0.0.0.0`。 4. **重启Hadoop服务**:如果上述步骤调整了配置,需要重启Hadoop以应用新的设置。 ```shell sudo service hadoop-daemon restart namenode ``` 如果你遇到类似`mkdir: Call From hadoop102/192.168.45.102 to hadoop102:8020 failed on connection exception: java.net...`的错误,可能说明尝试连接的节点自身存在问题,或者是网络环境内部的连通性问题。检查hadoop102自身的网络设置和Hadoop服务状态也是必要的。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值