hadoop单机安装步骤1

本文详细介绍如何在Linux环境下安装Hadoop2.7.7版本,并进行基本的功能测试,包括环境配置、HDFS操作及WordCount示例运行。

$wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz
$tar -xvf hadoop-2.7.7.tar.gz -C /usr/local
查看java安装路径
$ll -alh /usr/bin/java
lrwxrwxrwx 1 root root 22 May 13 20:03 /usr/bin/java -> /etc/alternatives/java
$ll -alh /etc/alternatives/java
lrwxrwxrwx 1 root root 74 May 13 20:03 /etc/alternatives/java -> /usr/lib/jvm/java-1.7.0-openjdk-1.7.0.95-2.6.4.0.el7_2.x86_64/jre/bin/java
切换目录。以下部分命令在hadoop目录下执行
$cd /usr/local/hadoop-2.7.7
修改hadoop配置文件
$vi ./etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.95-2.6.4.0.el7_2.x86_64/jre
编辑环境变量
$vi /etc/profile
HADOOP_HOME=/usr/local/hadoop-2.7.7在这里插入图片描述
测试统计功能,统计各词出现次数
$mkdir /home/input/
$cp ./etc/hadoop/*.xml /home/input/
$hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar \ wordcount /home/input/ /home/output
#output目录必须是不存在,执行后会自动生成。
查看hdfs文件系统
$hdfs dfs -ls /

$vi /usr/local/hadoop-2.7.7/etc/hadoop/core-site.xml
在这里插入图片描述

$vi /usr/local/hadoop-2.7.7/etc/hadoop/
dfs.replication1
因为是伪分布式,只在当前一台虚拟机上,所以value为1

生成ssh免登录秘钥
$ssh-keygen -t rsa #一直回车
$cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$chmod 600 ~/.ssh/authorized_keys

格式化
$bin/hdfs namenode -format
生成的存储目录为###INFO common.Storage: Storage directory /tmp/hadoop-root/dfs/name has been successfully formatted.
运行
$sbin/start-dfs.sh
网页访问
$firefox http://localhost:50070/
结束
$sbin/stop-dfs.sh

### Hadoop 单节点安装与配置教程 #### 准备工作 为了成功搭建Hadoop单节点集群,需先准备好Linux操作系统环境并确认已安装JDK。确保Java版本兼容所使用的Hadoop版本[^1]。 #### 安装步骤 ##### 下载Hadoop软件包 前往官方站点下载适合的Hadoop压缩文件。对于本指南而言,建议使用稳定版如3.3.x系列[^3]: ```bash wget https://archive.apache.org/dist/hadoop/core/hadoop-3.3.6/hadoop-3.3.6.tar.gz ``` ##### 解压并移动到指定位置 创建专门用于存放Hadoop文件夹,并解压下载好的tarball至该路径下: ```bash mkdir /usr/local/hadoop tar -xzvf hadoop-3.3.6.tar.gz -C /usr/local/hadoop/ ``` ##### 设置环境变量 编辑`~/.bashrc`或其他shell初始化脚本,在其中加入如下行来定义必要的环境变量[^2]: ```bash export HADOOP_HOME=/usr/local/hadoop/hadoop-3.3.6 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin source ~/.bashrc ``` ##### 修改核心配置文件 进入`$HADOOP_HOME/etc/hadoop/`目录修改几个重要的XML配置文档: - `core-site.xml`: 添加NameNode地址以及临时存储路径设置; - `hdfs-site.xml`: 设定DataNode数据保存副本数,默认即可满足测试需求; - `mapred-site.xml`: 更改框架名称为YARN; - `yarn-site.xml`: 调整ResourceManager主机名等参数; 具体操作命令如下所示: ```xml <!-- core-site.xml --> <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/app/hadoop/tmp</value> </property> </configuration> <!-- hdfs-site.xml --> <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> <!-- mapred-site.xml --> <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> <!-- yarn-site.xml --> <configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> </configuration> ``` ##### 初始化HDFS文件系统 执行以下指令完成格式化过程,这一步骤仅需首次运行时进行一次: ```bash hdfs namenode -format ``` ##### 启动服务 依次启动HDFS和YARN服务组件,可通过jps工具验证各进程是否正常启动: ```bash start-dfs.sh start-yarn.sh jps ``` 如果一切顺利,则可以在浏览器访问http://localhost:9870查看Web UI界面监控状态。 #### 测试案例提交 最后通过简单的WordCount例子检验整个平台的功能完整性。详情可参阅官方文档获取更多帮助和支持.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值