hadoop 不能正常启动

解决Hadoop启动时DataNode无法连接NameNode的问题,通过修改/etc/hosts文件中的hostname配置。
启动 hadoop 后,datanode 的 log 里一直报错,提示连不上 namenode。

2011-03-30 00:14:00,582 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 0 time(s).
2011-03-30 00:14:01,583 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 1 time(s).
2011-03-30 00:14:02,585 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 2 time(s).
2011-03-30 00:14:03,586 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 3 time(s).
2011-03-30 00:14:04,588 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 4 time(s).
2011-03-30 00:14:05,590 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 5 time(s).
2011-03-30 00:14:06,591 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 6 time(s).
2011-03-30 00:14:07,593 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 7 time(s).
2011-03-30 00:14:08,594 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 8 time(s).
2011-03-30 00:14:09,596 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 9 time(s).
2011-03-30 00:14:09,597 INFO org.apache.hadoop.ipc.RPC: Server at uec-fe/16.157.63.10:9000 not available yet, Zzzzz...

经过测试,在 namenode 上能连接 9000 端口。推测 hadoop 启动 ipc server 时只绑定在本地地址上。修改 /etc/hosts,把与 hostname 相关的配置删除后,hadoop 成功启动。
### Hadoop启动成功但无法访问Web界面的原因及解决方法 Hadoop集群启动后,如果无法通过Web界面访问HDFS的状态信息,可能由以下原因导致,并提供相应的解决方法: #### 1. 防火墙阻止端口访问 防火墙可能会阻止外部对Hadoop Web界面端口(如50070或9870)的访问。需要检查并关闭防火墙以确保端口开放。 ```bash # 检查防火墙状态 firewall-cmd --state # 如果防火墙正在运行,则关闭它 systemctl stop firewalld.service # 再次检查防火墙状态 firewall-cmd --state ``` 如果命令 `firewall-cmd` 不被支持,可以尝试使用 `iptables` 或其他安全工具进行排查[^2]。 #### 2. NameNode服务未正确绑定到指定端口 即使Hadoop服务启动成功,NameNode可能未正确绑定到默认端口(如50070或9870)。可以通过以下命令检查端口监听情况: ```bash netstat -ntlp | grep 50070 ``` 如果没有发现相关进程绑定到该端口,则可能是配置文件中端口设置错误或服务正常启动。检查Hadoop配置文件 `hdfs-site.xml` 中的 `dfs.namenode.http-address` 属性是否正确设置为: ```xml <property> <name>dfs.namenode.http-address</name> <value>主节点IP:50070</value> </property> ``` 对于Hadoop 3.0及以上版本,端口应改为9870[^1]。 #### 3. 访问地址错误 访问Web界面时,输入的URL可能不正确。正确的访问地址应为 `http://主节点IP:端口号` 或 `http://主机名:端口号`。如果 `netstat` 输出显示端口绑定在非标准端口上,则需根据实际端口号调整访问地址[^3]。 #### 4. 网络配置问题 如果Hadoop集群部署在虚拟机或云环境中,可能存在网络隔离或安全组规则限制。检查虚拟机的网络设置和安全组规则,确保允许外部访问Hadoop Web界面的端口(如50070或9870)。 #### 5. SELinux策略限制 SELinux可能会阻止Hadoop服务绑定到特定端口。可以通过以下命令临时禁用SELinux进行测试: ```bash setenforce 0 ``` 如果问题解决,则需要修改SELinux策略以允许Hadoop服务正常运行。 --- ### 示例代码:检查Hadoop服务状态 以下代码可用于检查Hadoop服务状态和端口监听情况: ```bash # 检查Hadoop服务是否正常启动 jps # 检查端口监听情况 netstat -ntlp | grep 50070 # 关闭防火墙 systemctl stop firewalld.service # 禁用SELinux(临时) setenforce 0 ``` ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值