Retrying connect to server: :9000. Already tried 0 time(s)

本文详细介绍了在使用HadoopFS进行Put操作时遇到错误信息时的排查步骤,包括检查Hadoop服务是否启动、是否正确格式化HDFS以及主机列表配置是否正确,并提供了相应的解决方案。
在测试时,执行hadoop fs -put hello.txt /操作,得到以下错误信息:

14/03/24 10:39:33 INFO ipc.Client: Retrying connect to server: hadoop/192.168.80.100:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)


产生的原因可能有三种:

1.根本就没有启动hadoop服务,导致连接不上,可以通过命令jps查看hadoop服务是否启动。


2.在start hadoop进程前,没有格式化hadoop文件系统,先执行: hadoop namenode -format即可。


3. 主机列表没有配置好,编辑/etc/hosts,将主机IP配置好。 


Hadoop 3.3.5 客户端不断重试连接服务器 192.168.59.140:9000,可能有以下几种原因及解决办法: ### 服务未启动 若 Hadoop 集群(hdfs、yarn、日志的相关服务)未启动,会导致客户端连接失败并不断重试。可使用以下命令启动 Hadoop 服务: ```bash cd /home/surtr/hadoop/hadoop-3.3.5/sbin ./start-all.sh ``` ### 网络连接问题 1. **防火墙或 SELinux 未关闭**:防火墙或 SELinux 可能会阻止客户端与服务器的连接。可使用以下命令关闭防火墙和 SELinux: ```bash # 关闭防火墙 systemctl stop firewalld systemctl disable firewalld # 临时关闭 SELinux setenforce 0 # 永久关闭 SELinux,需修改 /etc/selinux/config 文件 # 将 SELINUX=enforcing 改为 SELINUX=disabled ``` 2. **hosts 文件配置错误**:检查 `/etc/hosts` 文件是否正确配置,确保服务器的 IP 地址和主机名对应。示例配置如下: ```plaintext 192.168.59.140 your_server_hostname ``` ### 配置文件问题 1. **core-site.xml 配置错误**:检查 `core-site.xml` 文件中 `fs.defaultFS` 属性是否正确配置为 `hdfs://192.168.59.140:9000`。示例配置如下: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://192.168.59.140:9000</value> </property> </configuration> ``` 2. **hdfs-site.xml 配置错误**:确保 `hdfs-site.xml` 文件中的配置正确,特别是与 NameNode 相关的配置。 ### 安全模式问题 若 Hadoop 集群处于安全模式,客户端可能无法正常连接。可使用以下命令检查和退出安全模式: ```bash hdfs dfsadmin -safemode get hdfs dfsadmin -safemode leave ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值