windows系统下pycharm远程访问linux系统下jupyter notebook,并调用spark平台(三)-hadoop平台搭建

本文详细介绍了在三台机器上搭建Hadoop集群的过程,包括安装JDK、配置环境变量、修改hosts文件、设置Hadoop配置文件等关键步骤,以及如何格式化HDFS、启动HDFS和YARN服务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一,安装jdk

创建目录

输入:mkdir /usr/lib/jvm

拷贝下载好的jdk放入

解压

修改环境变量

在文件最后加入:

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_171

export PATH=$JAVA_HOME/bin:$PATH

export CLASSPATH=$JAVA_HOME/lib:$CLASSPATH

使配置文件生效

输入:source /etc/profile

查看java版本

二,修改hosts文件

三台机器都需要修改

输入:vi /etc/hosts

文件后添加如下:

三,hadoop配置

首先登陆192.168.88.177,进行配置,配置完成后需要再将文件拷贝到另外两台机器

(1)复制文件到 /opt文件夹下

解压hadoop

(2)新建临时文件tmp、tmp/dfs、tmp/dfs/data和tmp/dfs/name。用于存放datanode和namenode信息

(3)修改环境变量

在文件后面添加

(4)进入hadoop文件夹进行配置

修改hadoop环境变量

修改如下

(5)修改core-site.xml文件

修改如下:

(6)修改hdfs-site.xml文件

修改如下:

(7)修改mapred-site.xml

首先复制:

cp mapred-site.xml.template mapred-site.xml

然后,进入修改

修改如下:

(8)修改yarn-site.xml文件

修改如下:

(9)修改slaves文件

修改如下:

(10)拷贝修改到另外两台机器

拷贝配置好的hadoop

拷贝配置好的环境变量

(11)格式化HDFS

登陆192.168.88.178,执行

格式化HDFS信息复制到192.168.88.179

(12)启动HDFS

(13)启动yarn

(14)检查hadoop搭建结果

在浏览器输入http://192.168.88.177:50070 可以得到HDFS管理界面 

输入http://192.168.88.177:8088/,可以得到hadoop集群管理界面: 

至此,hadoop平台搭建完毕。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值