Hadoop的安装

这里和装jdk一样需要先将压缩包移到soft下

然后 cd  ~/soft

        sudo  tar  -zxvf  hadoop-2.6.5.tar.gz  -C  /usr/local

然后输入spark的密码

将解压的hadoop-2.6.5目录的用户和组权限设一下,方便启动Hadoop的时候能够完全控制这个目录,避免因为文件的访问权限导致出现问题。

我这里的用户名是shit,所以是shit:shit如果在version前加 - ,像java那样,就会报错。-version 被误认为是选项,但 Hadoop 并未定义该选项。

### Hadoop 安装教程 #### 准备工作 为了成功安装Hadoop,需先确认已正确安装并配置好Java环境。可以通过`java -version`命令来验证当前系统的Java版本。 #### 下载Hadoop软件包 前往Apache官方镜像站点下载最新的稳定版Hadoop压缩文件。对于2024年的最新版本,建议选择3.x系列中的一个稳定发布版本[^1]。 #### 解压与部署 解压所下载的tar.gz格式的Hadoop压缩包到指定目录下,例如 `/usr/local/` 或其他适合的位置: ```bash tar zxvf hadoop-3.4.0.tar.gz -C /usr/local/ ``` #### 配置环境变量 编辑`.bashrc`或其他shell初始化脚本,在其中加入Hadoop的相关路径设置以便于全局调用: ```bash export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin source ~/.bashrc ``` #### 修改核心配置文件 进入Hadoop配置文件夹并对`hadoop-env.sh`进行必要的调整以适应本地环境需求,特别是要确保指定了正确的JAVA_HOME位置[^2]: ```bash vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh ``` 在该文件内找到并修改如下行指向实际安装的JDK路径: ```properties export JAVA_HOME=/path/to/java/home ``` #### 启动Hadoop集群 完成上述准备工作之后就可以尝试启动单节点伪分布式模式下的HDFS服务了: ```bash $HADOOP_HOME/sbin/start-dfs.sh ``` 通过执行特定命令可以查看Hadoop是否正常运行以及其具体版本信息: ```bash /usr/local/hadoop/bin/hadoop version ``` 此命令会显示详细的编译时间戳和其他元数据信息,证明Hadoop已被成功安装并能够正常使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值