Windows环境下安装Hadoop3.1.0全过程(超详细手把手一条龙教学)

1、查看是否安装好了Java开发环境

在cmd中输入java -version
在这里插入图片描述
若能成功显示java jdk的版本号则代表java环境已安装成功(注意要配置好JAVA_HOME,后面步骤中会用到)

若还未安装或配置Java JDK,可以参考以下链接进行安装:Java JDK安装和配置

2、下载安装Hadoop所需要的文件

3、解压已下载的文件

我的hadoop-3.1.0解压后文件夹的路径为D:\hadoop-3.1.0
在这里插入图片描述

4、替换原安装包的bin文件夹

在这里插入图片描述
可以发现apache-hadoop-3.1.0-winutils-master这个文件夹解压后里面只有bin这一个文件夹,我们将这个bin文件夹复制到hadoop-3.1.0文件夹中替换原有的bin文件夹
在这里插入图片描述

5、配置Hadoop环境变量

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在新建系统变量中:变量名填HADOOP_HOME,变量值填hadoop-3.1.0对应的路径(比如我的是D:\hadoop-3.1.0)
在这里插入图片描述
顺便可以检查一下JAVA_HOME有没有配置好,后面会用到
然后点击Path变量进行编辑,在最前面加上%HADOOP_HOME%\bin;(记得加分号和别的隔开),配置完后如图所示:
在这里插入图片描述

6、检查环境变量是否配置成功

配置好环境变量后,win+R 输入cmd打开命令提示符,然后输入hadoop version,按回车,如果出现如图所示版本号,则说明安装成功
在这里插入图片描述

7、配置hadoop的配置文件

进入到\hadoop-3.1.0\etc\hadoop文件夹
在这里插入图片描述

1. 配置core-site.xml文件

在这里插入图片描述
以记事本或其他文本编辑器打开:
在这里插入图片描述
找到文档最后的""标签
填入以下内容:

<configuration>
	<property>
		<name>fs.defaultFS</name>
		<value>hdfs://localhost:900</value>
	</property>
</configuration>

注意:最后只有一个configuration标签!可以先去掉原来的configuration标签将以上内容复制粘贴到文档最后;或者将以上内容中configuration标签内的内容复制粘贴到原本文档中的configuration标签中!(最后文档内只能有一个configuration标签,以下几个配置文件也是如此)

在这里插入图片描述

2. 配置mapred-site.xml

在这里插入图片描述
同样也是在文档末尾添加以下内容:


<configuration>   
	<property>       
	<name>mapreduce.framework.name</name>       
	<value>yarn</value>   
	</property>
</configuration>

如图所示:

在这里插入图片描述

3. 配置yarn-site.xml

在这里插入图片描述
文档末尾添加以下内容:

<configuration>
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
	<property>
		<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
		<value>org.apache.hadoop.mapred.ShuffleHandler</value>
	</property>
</configuration>

在这里插入图片描述

4. 新建namenode文件夹和datanode文件夹

  1. 在D:\hadoop-3.1.0创建data2020文件夹(这个也可以是别的名字,但后面配置要对应修改)
    在这里插入图片描述
  2. 在data2020文件夹中(D:\hadoop-3.1.0\data2020)创建datanodenamenode文件夹
    在这里插入图片描述

5. 配置hdfs-site.xml

在这里插入图片描述
在文档底部配置如下内容:

<configuration>
	<property>       
	<name>dfs.replication</name>       
	<value>1</value>   
	</property>   
	<property>       
	<name>dfs.namenode.name.dir</name>       
	<value>D:\hadoop-3.1.0\data2020\namenode</value>
	</property>   
	<property>       
	<name>dfs.datanode.data.dir</name>     
	<value>D:\hadoop-3.1.0\data2020\datanode</value>
	</property>
</configuration>

注意两个标签中的地址是刚刚创建的datanode和namenode的对应地址

配置后如图所示:
在这里插入图片描述

6、配置hadoop-env.sh

注意!!hadoop-env.sh是.sh文件!有两个“hadoop-env”,一个是cmd文件,一个是sh文件,不要搞混了!
可以右键文件,点击属性,查看该文件的类型:
在这里插入图片描述

打开hadoop-env.sh
在这里插入图片描述
使用查找功能(ctrl+f)查找export JAVA_HOME,找到相应的位置:
在这里插入图片描述
在#export JAVA_HOME=下面一行配置自己电脑上对应的JAVA_HOME/bin路径,注意是以bin结尾的!!
JAVA_HOME的具体路径在环境变量中查找到

7、配置hadoop-env.cmd

注意是.cmd文件!!
在这里插入图片描述
.cmd文件无法用记事本打开的话,可以右键用Intellij IDEA打开并编辑
在这里插入图片描述
打开后使用查找功能(ctrl+f),输入@rem The java implementation to use查找到对应行
在这里插入图片描述
在set JAVA_HOME那一行将自己的JAVA_HOME路径配置上去

到这里配置文件就配置完了,注意每个文件配置完后记得保存!!

8、启动Hadoop服务

在cmd中进入到D:\hadoop-3.1.0\bin路径
或者直接在对应的文件夹里面输入cmd进入
在这里插入图片描述
在这里插入图片描述
输入hdfs namenode –format命令
如果没报错的话,证明配置文件没出问题!
然后再进入到D:\hadoop-3.1.0\sbin路径

注意,是sbin,不是bin!!

在这里插入图片描述
在这里插入图片描述
输入start-dfs.cmd命令,会跳出两个窗口,不要关掉它们!

再输入start-yarn.cmd,命令,又会再出现两个窗口,也不要关!

接着在浏览器中访问http://localhost:9870/
如果成功出现以下界面则代表Hadoop安装和配置完成啦!!
在这里插入图片描述

在虚拟机环境安装Hadoop 3.1.0是一个相对复杂的过程,但我会尽量提供详细的步骤。这里假设你已经安装了Linux发行版并配置了JDK。以下是安装Hadoop 3.1.0的基本步骤: 1. **准备环境**: - 安装必要的软件包(如curl、tar等),可以在终端输入 `sudo apt-get install curl tar`。 2. **下载Hadoop**: 使用`wget`或`curl`从Apache官网下载Hadoop源码包。例如: ``` wget https://www.apache.org/dist/hadoop/common/hadoop-3.1.0/hadoop-3.1.0.tar.gz ``` 3. **解压文件**: ``` sudo tar -xvf hadoop-3.1.0.tar.gz ``` 4. **创建目录结构**: ```bash sudo mkdir -p /usr/local/hadoop sudo chown -R $USER:$USER /usr/local/hadoop ``` 5. **移动目录到安装位置**: ``` sudo mv hadoop-3.1.0 /usr/local/hadoop ``` 6. **配置环境变量**: - 编辑`~/.bashrc`添加如下内容(替换`YOUR_HADOOP_HOME`为实际路径): ```bash export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin export JAVA_HOME=/path/to/your/jdk source ~/.bashrc ``` 7. **配置核心-site.xml**: ``` cp $HADOOP_HOME/etc/hadoop/core-site.xml.template $HADOOP_HOME/etc/hadoop/core-site.xml ``` 打开编辑器(比如`vi`或`nano`),修改`<property>`标签内的`hadoop.tmp.dir`为你希望的临时文件夹路径。 8. **配置hdfs-site.xml**: 同样复制模板并编辑`dfs.replication`等参数。 9. **格式化HDFS集群**: ``` hdfs namenode -format ``` 10. **启动服务**: - 首先启动HDFS守护进程 (`start-dfs.sh`) - 查看HDFS状态 (`jps`应该能看到NameNode和DataNode进程) - 可以通过命令 `hdfs dfs -ls /` 来测试HDFS是否可以正常访问。 **注意事项**: - 每次修改完配置文件记得保存并重启服务才会生效。 - 请确保有足够的磁盘空间和网络连接。
评论 33
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

GCTTTTTT

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值