Hadoop伪分布式的搭建

本文提供Hadoop2.5.0-cdh5.3.6版本的详细安装步骤,涵盖用户创建、主机名设置、SSH免密码登录、JDK安装、Hadoop环境搭建及启动验证等关键环节。

这里我使用的hadoop的版本为hadoop2.5.0-cdh5.3.6。传送门:下载地址

安装步骤:
1.创建用户,使用hadoop用户
2.修改主机名以及ssh免密码登录
3.jdk安装

4.hadoop安装

1.1步骤:
1. 使用useradd hadoop添加用户
2. 使用passwd hadoop设置用户密码,密码自拟
3. 给用户赋予使用sudo命令的权限。
4. chmod u+w /etc/sudoers
6. vim /etc/sudoers
7. 在root ALL=(ALL) ALL下面加上一行hadoop ALL=(ALL) ALL。(分隔的是制表符)

8. chmod u-w /etc/sudoers

2.1Hadoop环境搭建-修改主机名以及ssh免密码登录

步骤:(使用hadoop用户登录)
    1. 使用sudo hostname hadoop修改主机名,当前生效,重启后失效。
    2. 使用vim /etc/sysconfig/network修改主机名,重启生效。
    3. 在/etc/hosts文件中添加主机名对于的ip地址。
    4. 使用ssh-keygen -t rsa生成ssh秘钥。dsa
    5. 进入.ssh文件夹,创建authorized_keys文件,并将id_rsa.pub的内容添加到文件中去,修改文件权限为600(必须)。

    6. ssh hh验证



3.1步骤:
    1. 复制jdk压缩包到softs文件夹中
    2. 解压tar -zxvf softs/jdk-7u79-linux-x64.tar.gz
    3. 创建软连接sudo ln -s /home/hadoop/bigdater/jdk1.7.0_79 /usr/local/jdk   
    4. 配置相关环境变量vim ~/.bash_profile: JAVA_HOME, CLASSPATH, PATH。全局生效配置文件/etc/profile。
    5. 使环境变量生效 source ~/.bash_profile

    7. 验证java version/ javac version



4.1Hadoop环境搭建-hadoop安装

步骤:
    1. 下载hadoop安装包并复制到到softs文件夹中。
    2. 解压tar -zxvf softs/hadoop-2.5.0-cdh5.3.6.tar.gz,并创建数据保存文件hdfs(~/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/)。
    3. 配置hadoop-env.sh mapred-env.sh yarn-env.sh文件
    4. 配置基本环境变量core-site.xml文件
    5. 配置hdfs相关变量hdfs-site.xml文件
    7. 配置mapre相关环境变量mapred-site.xml文件
    8. 配置yarn相关环境变量yarn-site.xml文件
    9. 配置datanode相关变量slaves文件

    10. 配置hadoop相关环境变量

4.11 编辑文件hadoop-env.sh



4.12  mapred-env.sh


4.13  yarn-env.sh


4.14  core-site.xml

<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://hadoop:8020</value>
        </property>
        <property>
                <name>io.file.buffer.size</name>
                <value>131072</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/usr/local/softs/hadoop-2.5.0-cdh5.3.6/hdfs/tmp</value>
        </property>
</configuration>

4.15  hdfs-site.xml

<configuration>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/usr/local/softs/hadoop-2.5.0-cdh5.3.6/hdfs/name</value>
                <description> namenode 用来持续存放命名空间和交换日志的本地文件系统路径 </description>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/usr/local/softs/hadoop-2.5.0-cdh5.3.6/hdfs/data</value>
                <description> DataNode 在本地存放块文件的目录列表,用逗号分隔 </description>
        </property>
        <property>
                 <name>dfs.replication</name>
                 <value>1</value>
                 <description> 设定 HDFS 存储文件的副本个数,默认为1</description>
        </property>
        <property>
                <name>dfs.permissions.enabled</name>
                <value>false</value>
        </property>
</configuration>

4.16 mapred-site.xml

<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
</configuration>

4.17  yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->
        <property>
                <name>yarn.nodemanager.aux-services</name>
                 <value>mapreduce_shuffle</value>
        </property>
</configuration>

4.18 修改slaves文件 

    将文件的内容修改为 主机名称

4.19配置hadoop相关环境变量(vim /etc/profile)

#hadoop
export HADOOP_HOME=/usr/local/softs/hadoop-2.5.0-cdh5.3.6/
export HADOOP_PREFIX=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_PREFIX
export HADOOP_CONF_DIR=$HADOOP_PREFIX/etc/hadoop
export HADOOP_HDFS_HOME=$HADOOP_PREFIX
export HADOOP_MAPRED_HOME=$HADOOP_PREFIX
export HADOOP_YARN_HOME=$HADOOP_PREFIX
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

5. Hadoop环境搭建-hadoop启动

步骤:
    1. 第一次启动hadoop之前需要格式化namenode节点,命令为hadoop namenode -format。
    2. 两种方式启动start-all.sh或者start-hdfs.sh start-yarn.sh。

    3. 查看是否启动成功。

6.Hadoop环境搭建-验证hadoop是否启动成功

步骤:
    1. 验证hadoop是否启动成功有两种方式,第一种:通过jps命令查看hadoop的进行是否启动,第二种:查看web界面是否启动显示正常内容。
     2. 验证hadoop对应的yarn(MapReduce)框架是否启动成功:直接运行hadoop自带的example程序。
使用hadoop自带的mapreduce程序验证:/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0-cdh5.3.6.jar
将文件内容添加上去后执行:hadoop jar hadoop-mapreduce-examples-2.5.0-cdh5.3.6.jar wordcount /test.txt output/1234


Hadoop伪分布式搭建教程如下: ### 安装前准备 - **系统更新与SSH安装**:执行`sudo apt update && sudo apt upgrade -y`更新系统,再执行`sudo apt install openssh-server`安装SSH [^3]。 - **安装Java**:Hadoop 3.x需要Java 8/11,可通过`sudo apt install openjdk-11-jdk -y`安装,使用`java -version`验证安装 [^3]。 - **配置SSH免密登录**:Hadoop脚本依赖此功能。执行`ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa`生成密钥,`cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys`将公钥添加到授权文件,`chmod 600 ~/.ssh/authorized_keys`设置文件权限,最后`ssh localhost`测试免密登录 [^3]。 ### 下载并配置Hadoop - **下载Hadoop**:下载Hadoop 3.3.6稳定版,命令为`wget https://archive.apache.org/dist/hadoop/core/hadoop-3.3.6/hadoop-3.3.6.tar.gz` [^3]。 - **解压并重命名**:使用`tar -xzvf hadoop-3.3.6.tar.gz -C ~/`将其解压到用户目录,再用`mv ~/hadoop-3.3.6 ~/hadoop`重命名简化路径 [^3]。 - **配置环境变量**:将以下内容添加到`~/.bashrc`文件中: ```bash export HADOOP_HOME=~/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64 ``` 然后执行`source ~/.bashrc`使配置生效 [^3]。 ### 安装操作 - **上传压缩包**:下载好Hadoop压缩包之后,将其上传至虚拟机的`home/hadoop/software/`路径 [^1]。 - **创建目录**:在`home/hadoop/software/`路径下创建`hadooptmp`目录 [^1]。 ### 配置伪分布式平台 伪分布式需要修改四个文件,以下是具体操作: - **core-site.xml**:使用`sudo gedit ./etc/hadoop/core-site.xml`打开文件进行修改,修改后属性将覆盖主Hadoop jar文件中的默认值 [^2]。 - **其他配置文件**:还需对`hdfs-site.xml`、`mapred-site.xml`、`log4j.properties`、`taskcontroller.cfg`等文件进行相应修改,修改顺序无特殊要求 [^2]。 - **Yarn配置示例**:在配置文件中可添加如下内容: ```xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> ``` - **环境变量配置**:可通过`vim /etc/profile`配置Hadoop环境变量,示例如下: ```bash export HADOOP_HOME=/opt/module/hadoop-3.1.3 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export HDFS_NAMENODE_USER=root export HDFS_DATANODE_USER=root export HDFS_SECONDARYNAMENODE_USER=root export YARN_RESOURCEMANAGER_USER=root export YARN_NODEMANAGER_USER=root ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值