1、官网下载Hadoop(此处就不细讲了,这里我用的是hadoop-2.6.1.tar.gz版本)
2、将下载下来的hadoop上传到Linux的的当前用户文件夹中
3、复制hadoop到/usr文件夹中
cp hadoop-2.6.1.tar /usr
4、在/usr中解压,(解压后得到文件夹hadoop-2.6.1),并重命名为hadoop
tar -xzvf hadoop-2.6.1.tar.gz
mv hadoop-2.6.1 hadoop
5、进入到hadoop文件夹中进行配置
cd etc/hadoop(注意这个命令的前提是当前文件夹为/etc/hadoop)
6、开始配置hadoop
1)配置hadoop-env.sh
vi hadoop-env.sh
添加JDK路径,即
2)配置core-site.xml
vi core-site.xml

3)配置hdfs-site.xml
vi hdfs-siet.xml

4)配置mapred-site.xml

5)配置yarn-site.xml

6)配置slave文件(就是将原来文件里面的内容删除,然后添加3台虚拟机的主机名)

7、然后到/usr/hadoop/bin下,执行hadoop格式化
hdfs namenode -format
8、将Hadoop添加到环境变量中:vi /etc/profile

9、加载配置文件(否则在后面输入hdfs命令时,会提示没有这个命令,或者命令找不到)
source /etc/profile
10、将hadoop和p配置文件分发到另外两台机上
scp -r /usr/hadoop cx1:/usr
scp -r /usr/hadoop cx2/usr
scp /etc/profile cx1:/etc
scp /etc/profile cx2/etc
11、一定记得在另外两台机上source一下分发过去的配置文件
source /etc/perofile
12、启动HDFS
start-dfs.sh
13、然后分别在三台服务器上输入命令jps,表明安装成功
Linux中如何安装配置Hadoop?
最新推荐文章于 2025-10-04 11:27:22 发布
本文详细介绍了在Linux系统中安装配置Hadoop的步骤,包括下载Hadoop、上传到Linux、解压、配置环境变量、配置相关XML文件、格式化HDFS、分发配置到多台机器以及启动HDFS的过程。
部署运行你感兴趣的模型镜像
您可能感兴趣的与本文相关的镜像
Langchain-Chatchat
AI应用
Langchain
Langchain-Chatchat 是一个基于 ChatGLM 等大语言模型和 Langchain 应用框架实现的开源项目,旨在构建一个可以离线部署的本地知识库问答系统。它通过检索增强生成 (RAG) 的方法,让用户能够以自然语言与本地文件、数据库或搜索引擎进行交互,并支持多种大模型和向量数据库的集成,以及提供 WebUI 和 API 服务
1755

被折叠的 条评论
为什么被折叠?



