03-Ubuntu18.04+Hadoop3.1.3安装配置(完全分布式)

本文详细指导了在Ubuntu18.04系统上安装Hadoop3.1.3,包括设置主机名、配置hosts、SSH免密登录、安装JDK和Hadoop、环境变量配置,以及分布式集群的搭建和测试过程。

说明

我这里实际上是把jdk和hadoop安装在了/home/wolf/opt/app/中,而非正常的/opt/app/中,所以路径可能会有点怪,所以看这篇文章的时候要时刻注意路径问题,我也非常建议把软件放在/opt/app/中(记得提前chown把权限给好),这样比较符合市面上大多数的教程的路径。

参考链接:Ububtu18.04安装Hadoop3.1.3全分布集群-持续更新问题集-腾讯云开发者社区-腾讯云

目录

说明

1.设置主机名

2.配置/etc/hosts文件

3.SSH免密登录

4.使用SSH工具把Hadoop3.1.3和jdk8的压缩包上传到虚拟机上

5.安装jdk

6.安装Hadoop 

7.测试本地运行模式

8.完全分布式搭建及运行测试


1.设置主机名

# 临时设置hostname
sudo hostname master
# 永久设置hostname
sudo vim /etc/hostname
# 填写hostname,这里填写master

重启虚拟机即应用成功,对于其他的虚拟机可以填写hostname为slave1、slave2......

2.配置/etc/hosts文件

sudo vim /etc/hosts

配置成类似这样,注意修改ip地址。

3.SSH免密登录

在主机输入

ssh master

 进行ssh登录,这时还需要密码登录。

设置SSH免密登录

exit                           # 退出刚才的 ssh localhost
# 若没有该目录,请先执行一次ssh localhost
cd ~/.ssh/                     
ssh-keygen -t rsa              # 会有提示,都按回车就可以
cat ./id_rsa.pub >> ./authorized_keys  # 加入授权方法1
# 加入授权方法2 或这种方法
ssh-copy-id -i .ssh/id_rsa.pub  wolf@192.168.199.129 

4.使用SSH工具把Hadoop3.1.3和jdk8的压缩包上传到虚拟机上

我用的是finalshell,其他的各种shell或者putty都可以,这里就不多赘述了。压缩包可以去参考链接里下载。

5.安装jdk

先在主目录中(注:关于安装目录的问题,见“说明”)

mkdir opt/app/jdk

解压下载的jdk文件到 /home/用户名/opt/app/jdk目录下 

tar zxf jdk-8u162-linux-x64.tar.gz -C ~/opt/app/jdk

在主目录

sudo vim .bashrc

在最后插入 

export JAVA_HOME=/home/用户名/opt/app/jdk
export JRE_HOME=/home/用户名/opt/app/jdk/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$PATH

重启虚拟机,在终端输入

java -version

6.安装Hadoop 

同理,在opt/app/中创建一个hadoop目录

mkdir /opt/app/hadoop
tar -zxf hadoop-3.1.3.tar.gz -C ~/opt/app/hadoop

在主目录

sudo vim .bashrc

在最后插入 

export HADOOP_HOME=/home/用户名/opt/app/hadoop
ex
Ubuntu 18.04系统中安装Hadoop 3.1.3可按以下步骤进行: ### 创建hadoop用户 如果安装Ubuntu时不是使用 “hadoop” 用户,需要增加该用户。按 `ctrl + alt + t` 打开终端窗口,输入如下命令创建新用户: ```bash sudo useradd -m hadoop -s /bin/bash ``` 设置用户密码并提权: ```bash sudo passwd hadoop sudo adduser hadoop sudo ``` 上述创建用户、设置密码和提权的操作分别参考了引用 [1] 和 [4]。 ### 更新apt 更新系统的包列表,以获取最新的软件信息: ```bash sudo apt update ``` ### 安装SSH、配置SSH无密码登陆 安装SSH服务: ```bash sudo apt install openssh-server ``` 配置SSH无密码登陆,生成密钥对: ```bash ssh-keygen -t rsa -P &#39;&#39; -f ~/.ssh/id_rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys chmod 0600 ~/.ssh/authorized_keys ``` ### 安装Hadoop 3.1.3 下载Hadoop 3.1.3: ```bash wget https://archive.apache.org/dist/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz ``` 解压下载的文件: ```bash tar -zxvf hadoop-3.1.3.tar.gz ``` 移动Hadoop目录到合适位置,例如 `/usr/local`: ```bash sudo mv hadoop-3.1.3 /usr/local/hadoop ``` 配置环境变量,编辑 `~/.bashrc` 文件: ```bash nano ~/.bashrc ``` 在文件末尾添加以下内容: ```bash export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 使环境变量生效: ```bash source ~/.bashrc ``` ### Hadoop分布式配置 配置Hadoop的相关文件,例如 `core-site.xml`、`hdfs-site.xml` 等。编辑 `core-site.xml`: ```bash nano /usr/local/hadoop/etc/hadoop/core-site.xml ``` 添加以下内容: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 编辑 `hdfs-site.xml`: ```bash nano /usr/local/hadoop/etc/hadoop/hdfs-site.xml ``` 添加以下内容: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` ### 格式化HDFS 首次启动HDFS前,需要进行格式化: ```bash hdfs namenode -format ``` ### 启动Hadoop 启动HDFS和YARN服务: ```bash start-dfs.sh start-yarn.sh ``` ### 验证安装 通过浏览器访问 `http://localhost:9870` 查看HDFS的Web界面,访问 `http://localhost:8088` 查看YARN的Web界面。
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值