Ubantu20.04.4安装Hadoop3.1.3单机部署

Hadoop3.1.3单机部署笔记记录


条件:
Ubantu20.04.4
jdk-8u261
hadoop3.1.3

ubuntu-20.04.4-live-server 安装步骤
jdk-8u261 安装步骤


1. 安装SSH,配置SSH无密码登录

sudo apt-get install openssh-server

进入 ~/.ssh/ 目录,若不存在,需要执行一次 ssh localhost
cd ~/.ssh/
按四下回车
ssh-keygen -t rsa
授权
cat ./id_rsa.pub >> ./authorized_keys
使命令登陆本机:
ssh localhost 输入 yes
然后按提示输入主机密码,exit可退出当前主机
下一次连接就不用输入密码了


2. 上传或下载hadoop-3.1.3.tar.gz

至目录 /usr/local/
官网下载:hadoop3.1.3
wget https://archive.apache.org/dist/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz


3. 解压

tar -zxvf hadoop-3.1.3.tar.gz


4. 重命名

mv hadoop-3.1.3 hadoop


5. 修改文件权限

sudo chown -R axz /usr/local/hadoop


6. 进入hadoop目录

cd /usr/local/hadoop


7. 验证hadoop版本

./bin/hadoop version
3.1.3


8. 配置env文件 修改JDK路径

vi /usr/local/hadoop/etc/hadoop/hadoop-env.sh
添加:export JAVA_HOME=/usr/local/java/jdk1.8.0_261
jdk
Esc :wq 保存并退出


9. 修改核心组件文件

vi /usr/local/hadoop/etc/hadoop/core-site.xml

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

10. 修改文件系统文件

vi /usr/local/hadoop/etc/hadoop/hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    </property>
</configuration>


11. 配置完成,执行 NameNode 的格式化:

进入目录cd /usr/local/hadoop

格式化命令./bin/hdfs namenode -format
gsh


12. root用户启动hadoop需要的配置

start-dfs.shstop-dfs.sh 两个文件顶部添加以下参数

vi /usr/local/hadoop/sbin/start-dfs.sh
vi /usr/local/hadoop/sbin/stop-dfs.sh

HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

start-yarn.shstop-yarn.sh两个文件顶部添加以下参数
vi /usr/local/hadoop/sbin/start-yarn.sh
vi /usr/local/hadoop/sbin/stop-yarn.sh

YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

13. 开启 NameNode 和 DataNode 守护进程

./sbin/start-dfs.sh


14. 查看进程

安装插件:sudo apt install openjdk-8-jdk-headless
查看进程:jps
启动成功
关机前一定要关闭hadoop,不然下回启动会报错,需要重新格式化,数据就丢失了
关闭命令./sbin/stop-dfs.sh

下次启动 hadoop 时,不用NameNode 的初始化,
只需要运行 ./sbin/start-dfs.sh 就可以!

// TODO Hadoop启动脚本配置

—搞定!


15. 启动失败相关问题以及解决方案记录

问题1:

解决:
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_key

问题2:
jdk
解决:
配置env文件
vi /usr/local/hadoop/etc/hadoop/hadoop-env.sh
添加jdk路径
export JAVA_HOME=/usr/local/java/jdk1.8.0_261

问题3:
root
root用户启动hadoop报错:
解决:看第 12. root用户启动需要的配置

Ubantu20.04.4安装Hadoop3.1.3单机部署暂时到这,结束…

### 安装 Hadoop 单机版并配置 HDFS #### 准备工作 在 Ubuntu安装 Hadoop单机模式之前,需要确保系统已准备好必要的依赖项。这通常包括 Java 开发工具包 (JDK),因为 Hadoop 是基于 Java 构建的。 可以通过以下命令来验证 JDK 是否已经安装: ```bash java -version ``` 如果未安装,则可以运行以下命令进行安装: ```bash sudo apt update && sudo apt install default-jdk ``` #### 下载和解压 Hadoop 软件包 为了下载指定版本的 Hadoop(例如 2.2.0),可执行如下命令[^4]: ```bash wget http://apache.mirrors.pair.com/hadoop/common/stable2/hadoop-2.2.0.tar.gz ``` 接着将其解压缩到目标目录中[^2]: ```bash mkdir ~/hadoop-installation cd ~/hadoop-installation tar -xzvf /path/to/downloaded/hadoop-2.2.0.tar.gz ln -s hadoop-2.2.0 hadoop export HADOOP_HOME=~/hadoop-installation/hadoop ``` #### 配置环境变量 编辑 `~/.bashrc` 文件并将以下内容追加至其中: ```bash export JAVA_HOME=$(readlink -f /usr/bin/java | sed "s:bin/java::") export HADOOP_INSTALL=$HOME/hadoop-installation/hadoop export PATH=$PATH:$HADOOP_INSTALL/bin:$HADOOP_INSTALL/sbin export HADOOP_MAPRED_HOME=$HADOOP_INSTALL export HADOOP_COMMON_HOME=$HADOOP_INSTALL export HADOOP_HDFS_HOME=$HADOOP_INSTALL export YARN_HOME=$HADOOP_INSTALL source ~/.bashrc ``` #### 修改核心配置文件 进入 Hadoop 解压后的 `etc/hadoop/core-site.xml` 文件,并添加以下 XML 片段以定义本地文件系统的路径[^1]: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 对于 HDFS 配置 (`hdfs-site.xml`),需设置副本因子和其他参数: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` #### 启动 HDFS 和测试服务 完成上述配置后,初始化 NameNode 并启动 HDFS 服务: ```bash $HADOOP_HOME/bin/hdfs namenode -format $HADOOP_HOME/sbin/start-dfs.sh ``` 通过浏览器访问 Web UI 来确认状态是否正常:http://localhost:50070/ 停止服务时,可以使用以下脚本[^3]: ```bash $HADOOP_HOME/sbin/stop-dfs.sh ``` #### 使用 CLI MiniCluster 进行简化操作 作为另一种方法,用户也可以考虑利用内置的 CLI MiniCluster 功能快速部署单节点集群而无需手动调整多个配置选项[^5]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值