Hadoop部署

这篇博客详细介绍了在Linux环境下部署Hadoop的过程,包括准备Linux环境、安装JDK、配置Hadoop环境变量以及格式化和启动Hadoop。通过修改相关配置文件,设置HDFS和YARN,并通过jps命令验证了启动成功。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.准备Linux环境
    1.1 开启网络,ifconfig指令查看ip

 1.2 修改主机名为自己名字(hadoop)
        vim /etc/sysconfig/network
        NETWORKING=yes 
        HOSTNAME=hadoop

 1.3修改主机名和IP的映射关系
        vim /etc/hosts    
        192.168.182.128 hadoop

 1.4关闭防火墙
        #查看防火墙状态
        service iptables status
        #关闭防火墙
        service iptables stop
        #关闭防火墙开机启动
        chkconfig iptables off

 

 

 1.5重启Linux
        reboot

安装自己的JDK前,删除openJDK:
查看java安装版本:java -version
查看java安装包:rpm -qa|grep java
删除java安装包:rpm -e --nodeps 包名

2.安装JDK
    2.1 filezilla上传jdk到/opt

  2.2 解压jdk
        cd /opt
        tar -zxvf jdk-7u76-linux-x64.tar.gz

   2.3 将java添加到环境变量中
        vim /etc/profile
        #在文件最后添加
        export JAVA_HOME=/opt/jdk1.7.0_76
        export PATH=$PATH:$JAVA_HOME/bin

  #刷新配置
        source /etc/profile

  #查看java的版本
        java -version


3.安装Hadoop
    3.1 filezilla上传hadoop安装包,配置文档(hadoop2.2.0伪分布式搭建.txt)

 3.2解压hadoop安装包
        #解压
        tar -zxvf hadoop-2.2.0.tar.gz

 

 3.3修改配置文件(5个) 路径:/opt/hadoop-2.2.0/etc/hadoop
        第一个:hadoop-env.sh
        #在27行修改
        export JAVA_HOME=/opt/jdk1.7.0_76

 第二个:core-site.xml
        <configuration>
            <!-- 指定HDFS老大(namenode)的通信地址 -->
            <property>
                    <name>fs.defaultFS</name>
                    <value>hdfs://localhost:9000</value>
            </property>
            <!-- 指定hadoop运行时产生文件的存储路径 -->
            <property>
                    <name>hadoop.tmp.dir</name>
                    <value>/opt/hadoop-2.2.0/tmp</value>
            </property>
        </configuration>

 第三个:hdfs-site.xml
        <configuration>
            <!-- 设置hdfs副本数量 -->
            <property>
                    <name>dfs.replication</name>
                    <value>1</value>
            </property>
        </configuration>

 第四个:mapred-site.xml.template 需要重命名: mv mapred-site.xml.template mapred-site.xml
        <configuration>
            <!-- 通知框架MR使用YARN -->
            <property>
                    <name>mapreduce.framework.name</name>
                    <value>yarn</value>
            </property>

 ation>
        
        第五个:yarn-site.xml
        <configuration>
            <!-- reducer取数据的方式是mapreduce_shuffle -->
            <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
            </property>
        </configuration>

 3.4将hadoop添加到环境变量
        vim /etc/profile
        
        export JAVA_HOME=/opt/jdk1.7.0_55
        export HADOOP_HOME=/opt/hadoop-2.2.0
        export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    
        source /etc/profile

 3.5格式化HDFS(namenode)第一次使用时要格式化
        hadoop namenode -format
        
    3.6启动hadoop
        先启动HDFS
        start-dfs.sh
        
        再启动YARN
        start-yarn.sh
        
    3.7验证是否启动成功
        使用jps命令验证
        27408 NameNode
        28218 Jps
        27643 SecondaryNameNode
        28066 NodeManager
        27803 ResourceManager
        27512 DataNode

 http://localhost:50070  (HDFS管理界面)     

   

   http://localhost:8088 (MR管理界面)

 

### Hadoop部署教程 Hadoop部署通常分为单机模式、伪分布式模式以及完全分布式模式。以下是基于完全分布式环境下的 Hadoop 部署指南。 #### 1. 环境准备 在开始之前,确保所有的节点都已配置好基础环境,包括但不限于 JDK 安装、SSH 密钥免密登录配置等[^2]。 还需要确认所有机器上的 `/etc/hosts` 文件已经正确映射各主机名到 IP 地址。 #### 2. 用户权限校验 检查 `hadoop` 文件夹下每个文件是否属于 `hadoop` 组中的 `hadoop` 用户。如果不是,则需要通过以下命令重新设置用户和组: ```bash chown -R hadoop:hadoop /path/to/hadoop/ ``` #### 3. 分发安装包至集群节点 将 Hadoop 安装目录分发到其他节点上。例如,在主节点执行如下命令可以将安装路径复制到另一台名为 `hadoop2` 的服务器上: ```bash scp -r /export/servers/hadoop-3.3.0 root@hadoop2:/export/servers/ ``` 此操作需针对每台目标节点重复进行[^3]。 #### 4. 修改核心配置文件 编辑 Hadoop 的主要配置文件(如 `core-site.xml`, `hdfs-site.xml`, `mapred-site.xml`, 和 `yarn-site.xml`),并根据实际需求调整参数值。这些文件位于 `$HADOOP_HOME/etc/hadoop/` 下面。 #### 5. 启动 JournalNode 进程 为了支持高可用性 (HA),需要启动所有节点上的 JournalNode 进程。可以通过脚本批量运行该服务: ```bash [hadoop@cs0 hadoop]$ runRemoteCmd.sh "/home/hadoop/app/hadoop/sbin/hadoop-daemon.sh start journalnode" all ``` 上述指令会依次连接各个节点来开启对应的 JournalNode 实例[^1]。 #### 6. 初始化 NameNodes 并格式化 如果尚未初始化 Namenode 或者 SecondaryNamenode 数据库结构的话,请先执行下面这条命令来进行格式化处理: ```bash hdfs namenode -format ``` #### 7. 开启整个 HDFS 及 YARN 生态系统 最后一步就是正式启动 HDFS 和 MapReduce/YARN 框架的服务组件们啦!分别输入这两条语句即可实现目的: ```bash start-dfs.sh && start-yarn.sh ``` 至此,完整的 Hadoop 集群应该已经被成功搭建起来了! ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值