Hadoop单机安装详细步骤

本文详细介绍了Hadoop单机安装的全过程,包括环境准备(安装Java,创建Hadoop账号,配置SSH无密码登录),下载安装Hadoop 2.6.0并配置环境变量,配置Hadoop,启动HDFS和YARN,以及如何使用HDFS和运行MapReduce作业。通过这些步骤,读者可以成功搭建起一个Hadoop单机环境。

环境准备

安装Java

过程简单,这里省略具体安装步骤。安装后确认相应版本的Java已安装,这里选择1.7。

java -version

这里写图片描述

创建Hadoop账号

为Hadoop创建一个专门的账号是很好的实践:

sudo adduser hadoop
sudo passwd hadoop

这里写图片描述

授予 Hadoop root权限
为了测试,图方便,这里给Hadoop root权限,生产环境不建议这样做。
使用root权限编辑/etc/sudoers:

sudo vim /etc/sudoers

末尾添加一行:

hadoop  ALL=(ALL) ALL

这里写图片描述
切换到Hadoop账号:

su hadoop
配置SSH无密码登录

首先生成公私密钥对、

ssh-keygen -t rsa

指定key pair的存放位置,回车默认存放于/home/hadoop/.ssh/id_rsa
输入passphrase,这里直接回车,为空,确保无密码可登陆。

这里写图片描述

拷贝生成的公钥到授权key文件(authorized_keys)

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

改变key权限为拥有者可读可写(0600) :

chmod 0600 ~/.ssh/authorized_keys

chomod命令参考:

chmod 600 file – owner can read and write
chmod 700 file – owner can read, write and execute
chmod 666 file – all can read and write
chmod 777 file – all can read, write and execute

测试是否成功:

ssh localhost

这里写图片描述

下载安装

下载Hadoop 2.6.0
cd ~
wget http://apache.claz.org/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz

这里写图片描述

解压:

tar -zxvf hadoop-2.6.0.tar.gz

重命名一下:

mv hadoop-2.6.0 hadoop

(最好做个关联ln -s hadoop-2.6.0 hadoop

配置环境变量
vim ~/.bashrc

export JAVA_HOME=/usr/java/jdk1.7.0_79/
export HADOOP_HOME=/home/hadoop/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin 

source ~/.bashrc

配置Hadoop

配置Hadoop

cd $HADOOP_HOME/etc/hadoop

vim core-site.xml
<configuration>
<property>
  <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
</property>
</configuration>

配置HDFS

vim hdfs-site.xml
<configuration>
<property>
 <name>dfs.replication</name>
 <value>1</value>
</property>

<property>
  <name>dfs.name.dir</name>
    <value>file:///home/hadoop/hadoopdata/hdfs/namenode</value>
</property>

<property>
  <name>dfs.data.dir</name>
    <value>file:///home/hadoop/hadoopdata/hdfs/datanode</value>
</property>
</configuration>

配置MapReduce

vim mapred-site.xml
 <configuration>
 <property>
  <name>mapreduce.framework.name</name>
   <value>yarn</value>
 </property>
</configuration>

配置YARM:

vim yarn-site.xml
<configuration>
 <property>
  <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
 </property>
</configuration>

启动集群

格式化HDFS

使用之前,需要先格式化Hadoop文件系统

hdfs namenode -format
启动HDFS和YARN
cd $HADOOP_HOME/sbin

启动文件系统:

start-dfs.sh

这里写图片描述

启动YARN:

start-yarn.sh

这里写图片描述

查看状态

查看HDFS状态,浏览器访问: http://localhost:50070
这里写图片描述

查看second namenode:

http://localhost:50090

这里写图片描述

查看DataNode:
http://localhost:50075/
http://localhost:50075/dataNodeHome.jsp
这里写图片描述

简单使用Hadoop:

使用HDFS

在HDFS创建两个目录:

hdfs dfs -mkdir /user
hdfs dfs -mkdir /user/hadoop

上传:

hdfs dfs -put  /opt/modules/elasticsearch-2.3.1/logs logs

从管理界面可以看到:
这里写图片描述

运行MapReduce作业

提交一个MapReduce作业:

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep logs output 'dfs[a-z.]+'

可以从YARN应用的界面查看作业情况 http://localhost:8088

这里写图片描述

(完)

### Hadoop 单节点安装配置教程 #### 准备工作 为了成功搭建Hadoop单节点集群,需先准备好Linux操作系统环境并确认已安装JDK。确保Java版本兼容所使用的Hadoop版本[^1]。 #### 安装步骤 ##### 下载Hadoop软件包 前往官方站点下载适合的Hadoop压缩文件。对于本指南而言,建议使用稳定版如3.3.x系列[^3]: ```bash wget https://archive.apache.org/dist/hadoop/core/hadoop-3.3.6/hadoop-3.3.6.tar.gz ``` ##### 解压并移动到指定位置 创建专门用于存放Hadoop文件夹,并解压下载好的tarball至该路径下: ```bash mkdir /usr/local/hadoop tar -xzvf hadoop-3.3.6.tar.gz -C /usr/local/hadoop/ ``` ##### 设置环境变量 编辑`~/.bashrc`或其他shell初始化脚本,在其中加入如下行来定义必要的环境变量[^2]: ```bash export HADOOP_HOME=/usr/local/hadoop/hadoop-3.3.6 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin source ~/.bashrc ``` ##### 修改核心配置文件 进入`$HADOOP_HOME/etc/hadoop/`目录修改几个重要的XML配置文档: - `core-site.xml`: 添加NameNode地址以及临时存储路径设置; - `hdfs-site.xml`: 设定DataNode数据保存副本数,默认即可满足测试需求; - `mapred-site.xml`: 更改框架名称为YARN; - `yarn-site.xml`: 调整ResourceManager主机名等参数; 具体操作命令如下所示: ```xml <!-- core-site.xml --> <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/app/hadoop/tmp</value> </property> </configuration> <!-- hdfs-site.xml --> <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> <!-- mapred-site.xml --> <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> <!-- yarn-site.xml --> <configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> </configuration> ``` ##### 初始化HDFS文件系统 执行以下指令完成格式化过程,这一步骤仅需首次运行时进行一次: ```bash hdfs namenode -format ``` ##### 启动服务 依次启动HDFS和YARN服务组件,可通过jps工具验证各进程是否正常启动: ```bash start-dfs.sh start-yarn.sh jps ``` 如果一切顺利,则可以在浏览器访问http://localhost:9870查看Web UI界面监控状态。 #### 测试案例提交 最后通过简单的WordCount例子检验整个平台的功能完整性。详情可参阅官方文档获取更多帮助和支持.
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值