一、#启动hadoop后,使用jps出现xxxx jps ,是因为集群没有启动,

需要执行
- start-dfs.sh
- start-yarn.sh
- mr-jobhistory-daemon.sh start historyserver

二、启动hadoop之后,使用jps查看,hadoop01服务器中没有namenode,是由于之前格式化太多导致的
解决方法:
①首先停止hadoop的所有进程:stop-all.sh
②删除存放hdfs数据块的文件夹(hadoop/tmp/),然后重建该文件夹
③删除hadoop下的日志文件logs
④执行hadoop namenode -format格式化hadoop
⑤重新启动集群
三、在配置集群时,输入vim /etc/hosts时发现无法覆盖,还出现无法解析主机Hadoop01 的报错,这是因为修改了主机的设备名称,后面没有配置好hosts文件,导致Linux无法解析到主机地址
这个时候要配置一下hosts文件
输入如下代码:

将127.0.1.1 后面的改为hadoop01
保存并退出
使用reboot命令重启虚拟机
四、运行hadoop的MapReduce,在running job卡住,不能继续运行,是hosts列表配置错误在root权限下,输入
vi /etc/
Hadoop集群常见问题及解决方案

本文列举了在部署和运行Hadoop集群过程中遇到的一些问题,包括启动问题、Namenode故障、hosts配置错误、MapReduce卡住、SSH登录问题、多网卡配置问题、DataNodes未启动和Namenode配置同步等,并提供了详细的解决步骤。
最低0.47元/天 解锁文章
9302





