【ubuntu20.04 hadoop3.1.4安装】

1、SSH安装

  1. 先把软件源更改成阿里巴巴的软件源在这里插入图片描述
    在这里插入图片描述

  2. 更新完之后,打开命令终端,输入命令
    sudo apt-get update

  3. 打开终端输入
    安装vim

sudo apt-get install vim
  1. 配置SSH免密,不配置免密,每次启动都要输入密码
sudo apt-get install openssh-server
  1. 然后在终端输入ssh localhost,登录主机,要输入yes

  2. 在终端输入exit退出主机

  3. 在终端输入cd ~/.ssh/,进入到ssh里面

  4. 然后在终端输入ssh-keygen -t rsa,然后无脑按下四次回车

  5. 终端输入cat ./id_rsa.pub >> ./authorized_keys,这是加入授权免密

2、jdk安装

下载jdk

  1. https://www.123pan.com/s/xPY9-YLlvH 密码8899
    下载完成后,cd进入下载目录,解压文件,在终端输入
sudo tar -zxvf (后面是你jdk安装包的名字)

在这里插入图片描述 2. 将解压后的文件夹命名为jdk,然后终端输入

sudo mv jdk /usr/local/src

移动文件到 /usr/local/src
3. 设置jdk的环境变量,先输入cd回到home,然后输入gedit ~/.bashrc

  1. 在文件最后加入
export JAVA_HOME=/usr/local/src/jdk

export JRE_HOME=${JAVA_HOME}/jre 

export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

export PATH=${JAVA_HOME}/bin:$PATH

在这里插入图片描述
5. 终端输入source ~/.bashrc,作用是让刚刚的环境代码生效
6. 终端输入java -version,查看是否安装成功在这里插入图片描述

3、Hadoop安装

1.下载Hadoop
下载地址3.1.4
2. cd 到下载目录,输入 tar -zxvf (hadoop安装包的名字)解压,重命名为hadoop 步骤和安装jdk一样
3. 终端输入sudo mv hadoop /usr/local/src 然后输入cd /usr/local/src ,再然后ls查看
4. 输入cd hadoop 进入hadoop里面,然后再输入./bin/hadoop version即可查看版本号在这里插入图片描述

4、配置伪分布式环境

  1. 配置伪分布式环境,在/usr/local/src/hadoop这个路径里面,输入gedit ./etc/hadoop/core-site.xml命令直接修改文件在这里插入图片描述
    将框内替换为:
<configuration>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/usr/local/src/hadoop/tmp</value>

<description>Abase for other temporary directories.</description>

</property>

<property>

<name>fs.defaultFS</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

保存退出
2. 同样再次输入gedit ./etc/hadoop/hdfs-site.xml命令直接修改文件
在这里插入图片描述
替换为:

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/usr/local/src/hadoop/tmp/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/usr/local/src/hadoop/tmp/dfs/data</value>

</property>

</configuration>

保存退出
3. 终端输入格式化命令./bin/hdfs namenode -format
这里如果出现错误 ERROR: JAVA_HOME is not set and could not be found.
需要cd 进入hadoop目录下输入 gedit etc/hadoop/hdoop-env.sh
输入 JAVA_HOME的路径
export JAVA_HOME=/usr/local/src/jdk

4.输入启动命令 ./sbin/start-dfs.sh
5. 启动后,输入jps查询是否有进程在这里插入图片描述
6.浏览器输入 http://localhost:9870 在这里插入图片描述
欧克欧克装完了
7.结束进程
输入 stop-all.sh

参考
https://blog.youkuaiyun.com/Mr_M1/article/details/119635447
https://blog.youkuaiyun.com/zqq_2016/article/details/105864177

### Ubuntu 20.04 Hadoop 安装指南 #### 准备工作 为了确保顺利安装,在开始之前需确认已准备好以下事项: - 已经成功安装并配置好Ubuntu 20.04操作系统。 - Java环境已经正确设置,建议版本为Java 8或以上。 #### 更新系统包管理器索引文件 保持系统的最新状态非常重要。可以通过运行下面命令更新本地APT缓存: ```bash sudo apt update && sudo apt upgrade -y ``` #### 安装Java开发工具包(JDK) 如果尚未安装JDK,则可以执行下列指令完成安装: ```bash sudo apt install openjdk-11-jdk -y ``` 验证安装是否成功的命令是`java -version`[^1]。 #### 下载Hadoop压缩包 前往Apache官方网站下载页面获取最新的稳定版二进制分发文件。推荐采用wget或者curl这样的命令行工具来进行下载操作: ```bash cd ~ wget https://downloads.apache.org/hadoop/common/stable/hadoop-x.x.x.tar.gz tar zxvf hadoop-x.x.x.tar.gz mv hadoop-x.x.x ~/hadoop echo &#39;export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64&#39; >> ~/.bashrc echo &#39;export HADOOP_INSTALL=~/hadoop&#39; >> ~/.bashrc echo &#39;export PATH=$PATH:$HADOOP_INSTALL/bin&#39; >> ~/.bashrc source ~/.bashrc ``` #### 配置SSH无密码登录 为了让NameNode和DataNodes之间能够无障碍通信,需要实现免密钥认证功能。这一步骤对于单节点集群同样适用: ```bash ssh-keygen -t rsa -P &#39;&#39; -f ~/.ssh/id_rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys chmod 0600 ~/.ssh/authorized_keys ``` 测试通过尝试连接localhost来检验上述配置的效果:`ssh localhost`。 #### 修改核心配置文件 编辑`$HADOOP_INSTALL/etc/hadoop/core-site.xml`添加如下内容以便指定临时目录位置以及默认FS URI: ```xml <configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 接着调整`$HADOOP_INSTALL/etc/hadoop/hdfs-site.xml`中的参数以适应当前硬件条件: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` 最后不要忘记初始化namenode存储空间结构:`hdfs namenode -format`。 #### 启动服务 一切准备就绪之后就可以启动相关进程了。进入`sbin`目录下分别调用start-dfs.sh脚本开启DFS守护线程;如果是多机部署模式还需额外激活YARN ResourceManager/Yarn NodeManager组件: ```bash cd $HADOOP_INSTALL/sbin/ ./start-dfs.sh # For YARN, also run this command after starting DFS. # ./start-yarn.sh ``` 此时应该可以在浏览器里访问http://your-ip-address:50070查看Web UI界面了解集群健康状况和其他有用信息。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Richard_RM

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值