hadoop单机开发环境搭建

本文详细介绍Hadoop的安装步骤及配置过程,包括环境变量设置、SSH密钥生成、核心配置文件修改等内容,并验证Hadoop的成功部署。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、Linux是一个多用户的操作系统。每个用户登录系统后,都会有一个专用的运行环境。通常每个用户默认的环境都是相同的,这个默认环境实际上就是一组环境变量的定义。用户可以对自己的运行环境进行定制,其方法就是修改相应的系统环境变量。

2、常在/etc/profile文件中修改环境变量,在这里修改的内容是对所有用户起作用的。

3、如何添加环境变量。
  例如添加”NAME=liheng“ 。在profile文件的最后添加如下内容export NAME=liheng
  变量值liheng可以加引号也可以不加,效果一样。

4、在profile文件添加或修改的内容需要注销系统才能生效。

9、使用修改.bashrc文件(在用户的家目录下)进行环境变量的编辑,只对当前用户有用。
  使用修改 /etc/profile 文件进行环境变量的编辑,是对所有用户有用。大家一定要注意区别。


①/etc/profile:
该文件登录操作系统时,为每个用户设置环境信息,当用户第一次登录时,该文件被执行。也就是说这个文件对每个shell都有效,用于获取系统的环境信息。
②/etc/bashrc:
为每一个运行bash shell的用户执行此文件,当bash shell被打开时,该文件被读取。也就是说,当用户shell执行了bash时,运行这个文件。
③~/.bashrc
该文件存储的是专属于个人bash shell的信息,当登录时以及每次打开一个新的shell时,执行这个文件。在这个文件里可以自定义用户专属的个人信息。
~/.bashrc:该文件包含专用于你的bash shell的bash信息,当登录时以及每次打开新的shell时,该 该文件被读取.


1.初始化,更新最新的软件包信息
终端:sudo apt-get update
2.安装jdk
终端:sudo apt-get install default-jdk
安装完成后,测试是否安装成功
终端:java -version
查看jdk安装路径
终端:update-alternatives –display java
3.安装SSH
终端:sudo apt-get install ssh
4.安装rsync
终端:sudo apt-get install rsync
产生sshKey密钥
终端:ssh-keygen -t dsa -P ” -f ~/.ssh/id_dsa
会看到如下:
Generating public/private dsa key pair.
Created directory ‘/home/hduser/.ssh’.
Your identification has been saved in /home/hduser/.ssh/id_dsa.
Your public key has been saved in /home/hduser/.ssh/id_dsa.pub.
The key fingerprint is:
SHA256:xuCYXNaZ1hhydhL6Mv+lqD3PunXLXwzmKCeB1GKwjKE hduser@demo1
The key’s randomart image is:
+—[DSA 1024]—-+
| . o *.. |
| . + O X |
| E . B X o |
| . * B o |
| + + S . o |
| = . + o |
| . + = . o|
| ..= O . . |
| ..=== o.. |
+—-[SHA256]—–+
查看产生的密钥
终端:ll ~/.ssh
将产生的Key放到许可证文件中
终端:cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
5.安装hadoop
安装hadoop2.8.0版本
终端:wget https://archive.apache.org/dist/hadoop/common/hadoop-2.8.0/hadoop-2.8.0.tar.gz
下载完成后,解压
终端:sudo tar -zxvf hadoop-2.8.0.tar.gz
解压完成后,将解压的目录移至合适的目录下
终端:sudo mv hadoop-2.8.0 /usr/local/hadoop
————————设置hadoop环境变量————————
终端:sudo gedit ~/.bashrc
输入:

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 
export HADOOP_HOME=/usr/local/hadoop 
export PATH=$PATH:$HADOOP_HOME/bin 
export PATH=$PATH:$HADOOP_HOME/sbin 
export HADOOP_MAPRED_HOME=$HADOOP_HOME 
export HADOOP_COMMON_HOME=$HADOOP_HOME 
export HADOOP_HDFS_HOME=$HADOOP_HOME 
export YARN_HOME=$HADOOP_HOME 
export HADOOP_COMMON_HOME=$HADOOP_HOME 
export HADOOP_HDFS_HOME=$HADOOP_HOME 
export YARN_HOME=$HADOOP_HOME 
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native 
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" 
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH

保存退出
让~/.bashrc生效
终端:source ~/.bashrc
————————修改hadoop配置文件————————
包括hadoop-env.sh, core-site.xml, yarn-site.xml, hdfs-site.xml, mapred-site.xml

修改hdfs-site.xml,用于设置HDFS分布式文件系统
终端:sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml
在中加入:
设置blocks副本备份数量

<property>
<name>dfs.replication</name>
<value>3</value>
</property>

设置NameNode数据存储目录

<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode</value>
</property>

设置DataNode数据存储目录

<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>
</property>

修改yarn-site.xml,用于MapReduce2(YARN)的相关配置
终端:sudo gedit /usr/local/hadoop/etc/hadoop/yarn-site.xml
在中加入:

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>

修改mapred-site.xml,用于设置监控Map与Reduce程序的JobTracker任务分配情况以及TaskTracker任务运行情况
Hadoop提供了设置的模板文件,可以先复制过来后再做修改
终端:sudo cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml
终端:sudo gedit /usr/local/hadoop/etc/hadoop/mapred-site.xml
在中加入:
设置mapreduce框架为yarn

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

修改core-site.xml
终端:sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml
在中加入:
设置HDFS的默认名称

<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>

修改hadoop-env.sh
终端:sudo gedit /usr/local/hadoop/etc/hadoop/hadoop-env.sh

export JAVA_HOME=${JAVA_HOME}

修改为:

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

————————创建并格式化HDFS目录————————
创建namenode,datanode数据存储目录(在hadoop配置文件hdfs-site.xml中有设置过,所以需要创建)
终端:
创建namenode,datanode数据存储目录

sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/namenode
sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode

将Hadoop目录的所有者更改为当前你的用户
sudo chown hduser:hduser -R /usr/local/hadoop
格式化HDFS
终端:hadoop namenode -format

————————启动hadoop并查看相关信息————————
启动方式一:
分别启动dfs和yarn
终端:
start-dfs.sh
start-yarn.sh
启动方式二:
终端:
start-all.sh

使用jps来查看已经启动的进程
终端:
jps
执行后若看到输出:
5745 DataNode
6083 ResourceManager
5924 SecondaryNameNode
6214 NodeManager
6409 Jps
5595 NameNode
说明hadoop已经成功启动

使用http://localhost:8088/来打开Hadoop Resource-Manager Web界面

使用http://localhost:50070/来打开NameNode HDFS Web界面

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值