Hadoop3.1.4 的安装与配置

本文详细介绍了如何在Linux环境下进行Hadoop 3.1.4的安装与配置,包括设置SSH免密码登录、下载安装Hadoop、配置环境变量、修改相关配置文件、格式化HDFS以及启动NameNode和DataNode。通过这些步骤,成功完成了Hadoop集群的基础搭建。

一、设置SSH免密码登录

(1)系统偏好设置–>共享 中打开远程登录

在这里插入图片描述

(2)终端中输入ssh-keygen -t rsa,生成rsa公钥,一路回车

在这里插入图片描述

(3)终端中输入cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys ,将公钥的内容写入到authorized_keys文件中。

(4)终端中输入ssh localhost,此时会有如下提示(SSH首次登录提示),输入yes

在这里插入图片描述

再次使用ssh localhost,无需输入密码就可以直接登录了。
在这里插入图片描述

可能出现的错误提示:
在这里插入图片描述
若出现上述情况,查看在 Mac 上将 zsh 用作默认 Shell,按步骤操作解决。

二、Hadoop的安装与配置

  1. 下载Hadoop3.1.4

官网https://archive.apache.org/dist/hadoop/common/hadoop-3.1.4/

  1. 放在/usr/local/hadoop目录下

在这里插入图片描述

  1. 配置Hadoop环境

此处配置路径同之前jdk的配置路径一致:/etc/profile

终端中输入 sudo vim /etc/profile,添加以下内容:

export HADOOP_HOME=/usr/local/hadoop/hadoop-3.1.4
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

在这里插入图片描述
在这里插入图片描述

保存退出后使用source /etc/profile 使环境变量生效。

  1. 修改配置文件

1)配置Hadoop-env.sh

终端中输入 vim /usr/local/hadoop/hadoop-3.1.4/etc/hadoop/hadoop-env.sh

在这里插入图片描述
在这里插入图片描述

2)配置core-site.xml(指定了namenode的主机名与端口)

终端中输入 vim /usr/local/hadoop/hadoop-3.1.4/etc/hadoop/core-site.xml
在这里插入图片描述

在这里插入图片描述

<property><name>hadoop.tmp.dir</name><value>file:/usr/local/hadoop/tmp</value><description>Abase for other temporary directories.</description>
</property>
<property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value>
</property>

3)配置hdfs-site.xml

终端中输入 vim /usr/local/hadoop/hadoop-3.1.4/etc/hadoop/hdfs-site.xml
在这里插入图片描述
在这里插入图片描述

<property><name>dfs.replication</name><value>1</value>
</property>
<property><name>dfs.namenode.name.dir</name><value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property><name>dfs.datanode.data.dir</name><value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>

4)配置mapped-site.xml

终端中输入 vim /usr/local/hadoop/hadoop-3.1.4/etc/hadoop/mapred-site.xml
在这里插入图片描述在这里插入图片描述

<property><name>mapreduce.framework.name</name><value>yarn</value>
</property>

5)配置yarn-site.xml

终端中输入vim /usr/local/hadoop/hadoop-3.1.4/etc/hadoop/yarn-site.xml
在这里插入图片描述
在这里插入图片描述

<property><name>yarn.nodemanager.aux-servives</name><value>mapreduce_shuffle</value>
</property>
<property><name>yarn.nodemanager.env-whitelist</name>
	<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
  1. 格式化HDFS

配置完成后,执行NameNode格式化。

终端中输入hdfs name-node -format

成功的话,会看到 “successfully formatted” 和 “Exitting with status 0” 的提示,若为 “Exitting with status 1” 则是出错。

(此处没有显示以上两种情况,但后续也证实初始化成功,暂时不知道什么原因)
在这里插入图片描述

若出现如下错误,是因为权限不够。
在这里插入图片描述

解决办法:

Sudo chmod -R a+w /usr/local/hadoop/

6. 开启NameNode和DataNode守护进程

终端中输入:

cd /usr/local/hadoop/hadoop-3.1.4

./sbin/start-all.sh

启动后使用jps判断是否启动成功。

在这里插入图片描述

成功启动后,可以通过访问Web界面http://localhost:9870/查看NameNode和DataNode信息,还可以在线查看HDFS中的文件。

至此,Hadoop 3.1.4 的安装和配置完成。

### Hadoop 3.1.4 环境变量配置教程 为了正确配置 Hadoop 3.1.4 的环境变量,需要对系统的 `JAVA_HOME` 和 `HADOOP_HOME` 进行设置,并确保这些变量能够被系统识别。以下是详细的配置说明: #### 1. 配置 JAVA_HOME 在 Hadoop 的运行过程中,Java 是必不可少的依赖环境。因此,首先需要正确配置 Java 的路径。 - 如果是 Linux 系统,可以在 `~/.bashrc` 或 `/etc/profile` 文件中添加以下内容: ```bash export JAVA_HOME=/opt/module/jdk1.8.0_161 export PATH=$JAVA_HOME/bin:$PATH ``` 这里假设 JDK 安装在 `/opt/module/jdk1.8.0_161` 目录下[^3]。如果安装路径不同,请根据实际情况调整。 - 对于 Windows 系统,可以通过修改系统环境变量实现。例如,在 `hadoop-env.cmd` 文件中将以下内容替换为实际的 JDK 路径: ```cmd set JAVA_HOME=C:\PROGRA~1\Java\jdk1.8.0_191 ``` 注意:如果路径中包含空格(如 `C:\Program Files`),需要使用短路径名 `PROGRA~1` 替代[^4]。 #### 2. 配置 HADOOP_HOME 接下来配置 Hadoop 的主目录路径。 - 在 Linux 系统中,同样编辑 `~/.bashrc` 或 `/etc/profile` 文件,添加以下内容: ```bash export HADOOP_HOME=/opt/module/hadoop-3.1.4 export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH ``` 这里的路径 `/opt/module/hadoop-3.1.4` 是 Hadoop安装目录,需根据实际情况调整[^3]。 - 在 Windows 系统中,添加一个新的系统变量 `HADOOP_HOME` 并将其值设置为 Hadoop安装路径(如 `D:\ProgramData\hadoop_2.7.7`)。然后在 `Path` 变量中追加 `%HADOOP_HOME%\bin`[^4]。 #### 3. 验证配置是否成功 完成上述配置后,可以通过以下命令验证 Hadoop 是否正常工作: ```bash hadoop version ``` 如果输出了 Hadoop 的版本信息,则说明配置成功[^4]。 #### 4. 配置 Hadoop 的相关文件 除了环境变量外,还需要对 Hadoop配置文件进行适当修改。例如,在 `hadoop-env.sh` 文件中添加或修改以下内容以指定 `JAVA_HOME`: ```bash export JAVA_HOME=/opt/jdk/openjdk-1.8.0_92 ``` 此步骤确保 Hadoop 在运行时能够正确找到 Java 的安装路径[^1]。 此外,还需要根据集群的需求修改 `core-site.xml`、`hdfs-site.xml` 等配置文件。例如,在 `core-site.xml` 中可以定义 NameNode 的地址和临时数据存储路径[^5]。 --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值