Hadoop node 部署步骤

本文详细介绍如何从零开始搭建Hadoop集群,包括RHEL系统的安装配置、SSH无密码登录的实现、JDK及Hadoop的安装步骤,并对核心配置文件进行说明。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

1.         OS安装

a)         RHEL 6.2 X64

                         i.              刻录光盘安装(略)

b)         安装选项

                         i.              Basic server即可

                       ii.              设置hostname

                      iii.              安装完毕执行system-config-network,保存配置;如果网络命名:em1,修改/etc/sysconfig/network-scripts/ifcfg-em1:
ONBOOT=yes
使得网络自动启动

                      iv.              没有DNS的话编辑/etc/hosts,设置本机和其他机器的ip

2.         每个node配置ssh无密码登录,建议相互都可以做到无密码登录

a)         配置Root用户,方便后续安装部署

                         i.              在一台机器上对所有机器(包括自己)执行
# ssh crt-hadoop[01~06] ‘ssh-keygen –t rsa’  (提问直接enter到底)

                       ii.              把所有机器上的id_rsa.pub集中收集
# ssh crt-hadoop[01~06] ‘cat /root/.ssh/id_rsa.pub’ >> /root/.ssh/authorized_keys

                      iii.              复制authorized_keysknown_hosts到所有机器
# scp /root/.ssh/authorized_keys crt-hadoop[01~06]:/root/.ssh/
# scp /root/.ssh/known_hosts crt-hadoop[01~06]:/root/.ssh/
# ssh crt-hadoop[01~06] ‘chmod 600 /root/.ssh/authorized_keys’

b)         配置 hadoop用户,该用户将运行hadoop

                         i.              在一台机器上创建所有机器的hadoop用户
# ssh crt-hadoop[01~06] ‘adduser Hadoop;passwd Hadoop’

                       ii.              使用hadoop用户登录

                      iii.              使得hadoop用户也可以采用ssh无密码登录
$ ssh crt-hadoop[01~06] ‘cat /home/hadoop/.ssh/id_rsa.pub’ >> /home/hadoop/.ssh/authorized_keys

                      iv.              复制authorized_keysknown_hosts到所有机器
$ scp ~/.ssh/authorized_keys crt-hadoop[01~06]:~/.ssh/
$ scp ~/.ssh/known_hosts crt-hadoop[01~06]:~/.ssh/
$ ssh crt-hadoop[01~06] ‘chmod 600 ~/.ssh/authorized_keys’

3.         JDK安装

a)         下载Sunjdk-6u30-linux-x64-rpm.bin

b)         在所有机器上安装jdk root登录)
# scp jdk-6u30-linux-x64-rpm.bin crt-hadoop[01~06]:/home/Hadoop/
# ssh crt-hadoop[01~06] ‘chmod +x /home/Hadoop/jdk-6u30-linux-x64-rpm.bin; /home/Hadoop/jdk-6u30-linux-x64-rpm.bin

4.         Hadoop安装

a)         下载 hadoop-1.0.0-1.amd64.rpm

b)         在所有机器上安装hadooproot登录)
# scp Hadoop-1.0.0-1.amd64.rpm crt-hadoop[01~06]:/home/Hadoop
# ssh crt-hadoop[01~06] ‘rpm –ivh /home/hadoop/Hadoop-1.0.0-1.amd64.rpm’

c)         设置hadoop脚本运行权限
# ssh crt-hadoop[01~06] ‘chmod +x /usr/sbin/*.sh’

d)         修改hadoop配置文件
/etc/hadoop/hdfs-size.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
</configuration>

crt-hadoop01
设置为
master
/etc/hadoop/mapred-site.xml


<configuration>
    <property>
        <name>mapred.job.tracker</name>
        <value>crt-hadoop01:9001</value>
    </property>
</configuration>


/etc/hadoop/core-size.xml

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://crt-hadoop01:9000</value>
    </property>
</configuration>


/etc/hadoop/slaves
crt-hadoop02
crt-hadoop03
crt-hadoop04
crt-hadoop05
crt-hadoop06


/etc/Hadoop/masters
crt-hadoop01

e)         复制配置文件到所有机器
# scp /etc/hadoop/* crt-hadoop[02~06]:/etc/hadoop/

f)          关闭防火墙
# ssh crt-hadoop[01~06] ‘ service iptables save; service iptables stop; chkconfig iptables off’

g)         运行hadoop example (hadoop登录)
$ hadoop namenode –format
$hadoop fs –put /etc/Hadoop test-data
$hadoop jar /usr/share/hadoop/hadoop-example-*.jar grep test-data out ‘dfs[a-z.]+’


 

### Hadoop 安装部署教程 #### 准备工作 为了成功安装和配置Hadoop,在开始之前需确保所有节点的操作系统已更新至最新版本并关闭防火墙和服务隔离设置,以减少网络通信障碍。此外,还需确认Java环境已在各节点上正确安装,因为Hadoop依赖于Java运行时环境。 #### 下载与分发软件包 从官方Apache镜像站点下载稳定版Hadoop压缩包[^2], ```bash wget https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.10.0/hadoop-2.10.0.tar.gz ``` 解压该文件并将目录结构同步到集群内的其他机器上。对于多台服务器组成的分布式系统而言,可以利用`scp`命令实现跨主机的数据传输: ```bash scp -r hadoop-2.10.0 user@nodeX:/path/to/destination/ ``` 其中`user`代表目标机器上的用户名,而`nodeX`则是指代具体的目标节点名称或IP地址;最后部分则指定存储路径[^1]。 #### 创建软连接简化访问路径 考虑到不同版本之间的切换需求以及保持一致性,建议创建指向实际安装位置的符号链接。这一步骤可以在每台参与计算的服务端执行一次即可完成设定: ```bash ln -s /export/servers/hadoop-3.3.4 /export/servers/hadoop ``` 上述指令会建立一个名为`hadoop`的新快捷方式来代替冗长的具体版本号表示法,从而方便后续管理和维护操作[^3]。 #### 修改核心配置文件 编辑位于`${HADOOP_HOME}/etc/hadoop/core-site.xml`中的参数项,定义NameNode的位置以及其他必要的全局属性。同样地,调整`yarn-site.xml`里有关ResourceManager的相关选项,使其适应当前硬件资源状况和个人偏好。 #### 启动服务进程 当一切准备就绪之后,就可以通过脚本启动整个框架所提供的各项功能模块了。通常情况下,只需简单输入如下两条命令就能让Master Node及其附属Slave Nodes进入待命状态: ```bash start-dfs.sh start-yarn.sh ``` 至此,已完成了一个基础形态下的Hadoop平台搭建流程概述。当然,针对特定应用场景还可能涉及到更多高级特性的启用或是性能调优措施的选择等问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值