Hadoop实验常见的错误总结

本文详细介绍了Hadoop集群搭建过程中可能遇到的问题及解决方案,包括环境变量配置、防火墙设置、进程启动失败、JAVA_HOME配置错误等问题,并提供了解决步骤和技巧。

1、bash: *****: command not found…(未找到命令)

  1. bash: hdfs: command not found…
            没有配置hadoop开发环境,需要进行hadoop部署安装第五部,来配置Hadoop的环境变量,JDK的环境变量和Hadoop的环境变量不一样,这两个环境变量都需要配置

  2. bash: java: command not found…
           没有配置java安装包,安装方式参考:
    https://blog.youkuaiyun.com/xujingran/article/details/83905273完成后执行。
            yum list|grep openjdk,查看JDK的版本。执行yum install java-1.7.0-openjdk-devel.x86_64。安装成功后即可继续执行jps即可。

  3. bash: hadop: command not found…
            执行vim ~/.bashrc,没有进行source ~/.bashrc命令

  4. 入echo $JAVA_HOMEjava -version不成功
            需要source ~/.bashrc让其生效在执行echo $JAVA_HOMEjava -version即可。

2、显示SHUTDOWN_MSG: Shutting down NameNode at java.net.UnknownHostException: linuxprobe: linuxprobe等信息

        表示没有成功执行hdfs namenode -format格式化命令
        需要关闭防火墙,关闭防火墙命令为:service iptables stop。检查防火墙是否关闭命令为:service iptables status

3、执行start-dfs.sh只输入了一次或者两次密码就结束了开启状态

        只输入了一次密码就结束是没有开启NameNode进程,需要仔细查看core-site.xml文件,有输入错误。输入了两次密码则表示NameNode进程没有开启DataNode进程,需要仔细查看hdfs-site.xml文件,有输入错误。

4、提示Error:JAVA_HOME is not set and could not be found

        JAVA_HOME没有配置成功,需要进入/usr/local/hadoop/etc/hadoop/hadoop-env.sh文件下找到export JAVA_HOME=${JAVA_HOME},把它修改为JAVA安装路径的具体安装地址。

5、NameNode无法启动

      $bin/hadoop dfsadmin -safemode leave
       关闭 safemode即可

6、都启动成功了,但是输入jps命令,只要jps一项,没有别的项目

       如果用户名不是localhost,则需要进入/etc/hosts中添加一条内容,如:127.0.0.1 linuxprobe,保存重新执行jps即可解决

7、出现Error: No command named -version’ was found. Perhaps you meant hadoop version

    将hadoop version输成了hadoop -version。Java检验是用java -version 而hadoop是直接输入hadoop version

### Hadoop 集群部署实验指南 以下是关于如何完成 Hadoop 集群部署的完整步骤: #### 1. 准备工作环境 在开始之前,需确保所有节点的操作系统已安装完毕,并配置好无密码 SSH 登录功能。此外,还需设置主机名解析以及 Java 环境变量。 - **SSH 密钥分发**:为了实现免密登录,在主节点上生成公私钥对并将公钥复制到其他节点。 ```bash ssh-keygen -t rsa ssh-copy-id hadoop@node2 ssh-copy-id hadoop@node3 ``` 此操作允许主节点无需输入密码即可访问从节点[^1]。 --- #### 2. 下载并解压 Hadoop 软件包 下载最新版本的 Hadoop 并将其放置于指定路径下,通常建议放在 `/opt/module` 或类似的目录结构中。 ```bash wget https://downloads.apache.org/hadoop/common/stable/hadoop-3.3.4.tar.gz tar -zxvf hadoop-3.3.4.tar.gz -C /opt/module/ ``` 创建软链接以便简化管理命令行工具时更便捷[^2]。 ```bash ln -s /opt/module/hadoop-3.3.4 /opt/module/hadoop ``` --- #### 3. 修改核心配置文件 编辑 `core-site.xml`, `hdfs-site.xml`, 和 `mapred-site.xml` 文件来定义存储位置、副本数量以及其他参数。 ##### core-site.xml 设定 NameNode 的 URI 地址及其临时数据保存地址。 ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://node1:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/data/tmp</value> </property> </configuration> ``` ##### hdfs-site.xml 调整 DataNode 副本数至适合集群规模的数量。 ```xml <configuration> <property> <name>dfs.replication</name> <value>3</value> </property> </configuration> ``` ##### mapred-site.xml 指明 MapReduce 应用框架运行模式为 YARN。 ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` --- #### 4. 启动 Hadoop 集群服务 依次启动 HDFS 和 YARN 组件,验证各进程状态正常运转。 ```bash /opt/module/hadoop/sbin/start-dfs.sh /opt/module/hadoop/sbin/start-yarn.sh jps ``` 通过 JPS 工具确认各个角色对应的守护线程均已激活,例如 NameNode, SecondaryNameNode, ResourceManager 及 NodeManager 这些关键组件均应可见。 --- #### 5. 测试分布式计算能力 上传测试文件集到 HDFS 上面用于执行简单的 WordCount 类型作业或者查看是否存在错误日志记录情况。 ```bash hdfs dfs -mkdir -p /user/hadoop/input hdfs dfs -put ./etc/hadoop/*.xml /user/hadoop/input/ ``` 提交一个基础样例程序检验整个流程是否通畅无障碍[^3]。 ```bash yarn jar /opt/module/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar wordcount /user/hadoop/input /user/hadoop/output ``` --- #### 总结 以上即完成了基于 Linux 平台之上构建起一套完整的 Apache Hadoop 分布式处理平台所需经历的主要环节概述说明文档[^1]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值