VM下搭建hadoop集群

本文详细介绍如何使用VMware搭建包含Master及两台Slave节点的Hadoop集群,并进行SSH无密码登录配置、Hadoop环境配置等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一.前期准备

1.安装VMware_Workstation_wmb

2.安装三台CentOS-6.3-i386-bin-DVD1  

      Master192.168.66.174

      Slave1192.168.66.171

      Slave29:1.168.66.173

二.安装步骤:

(在安装centos时就把pc的名字改好,免得后面改hostname

1.在每台pc上的/etc/hosts中加入:

127.0.0.1 localhost

192.168.66.174master

192.168.66.171slave1

192.168.66.173slave2

2.在每台pc安装java:

/etc/profile中加入:

exportJAVA_HOME=/usr/local/java/jdk1.6.0_45

exportPATH=:$JAVA_HOME/bin:/sbin:/usr/bin:/usr/sbin:/bin

exportCLASSPATH=.:$JAVA_HOME/lib

3.配置SSH无密码登录:

   在每台pc上面:

   ssh-keygen-t rsa

 cat~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

 chmod 700 .ssh

 chmod 644 authorized_keys

编辑sshd配置文件/etc/ssh/sshd_config

把#AuthorizedKeysFile  .ssh/authorized_keys前面的注释取消掉。

在master上面:

ssh-copy-id -i~/.ssh/id_rsa.pub root@slave1

ssh-copy-id -i~/.ssh/id_rsa.pub root@slave2

重启

servicesshd restart

在slave1上面:

ssh-copy-id -i~/.ssh/id_rsa.pub root@master

ssh-copy-id -i~/.ssh/id_rsa.pub root@slave2

重启

servicesshd restart

在slave2上面:

ssh-copy-id -i~/.ssh/id_rsa.pub root@slave1

ssh-copy-id -i~/.ssh/id_rsa.pub root@master

重启

servicesshd restart

再ssh slave1;sshslave2;ssh master验证

**遇到Agentadmitted failure to sign using the key
解決方式使用ssh-add 指令将私钥加进来(根据个人的密匙命名不同更改 id_rsa
# ssh-add ~/.ssh/id_rsa

**遇到ssh:connect to host master port 22: No route to host是由于ip地址问题,检查/etc/hosts

4.配置hadoop

   下载hadoop

scphadoop-1.2.0.tar.gz root@slave1:/usr/local

tar xzvfhadoop-1.2.0.tar.gz

mv hadoop-1.2.0/usr/local/hadoop

profile./bashrc中加入:

 export HADOOP_HOME=/usr/local/hadoop

 export PATH=$PATH:$HADOOP_HOME/bin

配置hadoop-env.sh

    设置JAVA_HOME

配置core-site.xml

<property>

       <name>fs.default.name</name>

       <value>hdfs://master:9000</value>

       <final>true</final>

</property>

<property>

       <name>hadoop.tmp.dir</name>

       <value>/home/hadoop/hadoop/data/hdfs/tmp</value>

</property>

配置mapred-site.xml

<property>

       <name>mapred.job.tracker</name>

       <value>master:9001</value>

</property>

配置hdfs-site.xml

<!-- master配 -->

<property>

       <name>dfs.name.dir</name>

       <value>/home/hadoop/hadoop/data/hdfs/name</value>

       <final>true</final>

</property>

<!-- slave配 -->

<property>

       <name>dfs.data.dir</name>

       <value>/home/hadoop/hadoop/data/hdfs/data</value>

       <final>true</final>

</property>

<property>

       <name>dfs.replication</name>

       <value>1</value>

       <final>true</final>

</property>

配置masters

修改为master或对应的IP地址

配置slaves

slave1

slave2

(可以salves机上通过scpmasters机上的hadoop主目录:sudo scp -r test@192.168.30.20:/usr/local/hadoop /usr/local

关掉防火墙

root用户下

service iptables stop

格式化namenode

在master机子中:hadoop namenode -format

在master下启动集群即可:start-all.sh(因为已经将hadoop添加到PATH中去了)

检验master:输入jps

3711 NameNode

4085 Jps

3970 JobTracker

3874 SecondaryNameNode

检验slave:输入jps

2892 Jps

2721 DataNode

2805 TaskTracker

或在master输入:hadoop dfsadmin -report

Safe mode is ON

Configured Capacity:15481700352 (14.42 GB)

Present Capacity:13734293504 (12.79 GB)

DFS Remaining:13457870848 (12.53 GB)

DFS Used: 276422656(263.62 MB)

DFS Used%: 2.01%

Under replicatedblocks: 0

Blocks with corruptreplicas: 0

Missing blocks: 0

-------------------------------------------------

Datanodes available: 3(3 total, 0 dead)

Name:192.168.160.143:50010

Decommission Status :Normal

Configured Capacity:5160566784 (4.81 GB)

DFS Used: 41160704(39.25 MB)

Non DFS Used:582455296 (555.47 MB)

DFS Remaining:4536950784(4.23 GB)

DFS Used%: 0.8%

DFS Remaining%: 87.92%

Last contact: Mon May06 16:12:02 CST 2013

Name:192.168.160.140:50010

Decommission Status :Normal

Configured Capacity:5160566784 (4.81 GB)

DFS Used: 97075200(92.58 MB)

Non DFS Used:582545408 (555.56 MB)

DFS Remaining: 4480946176(4.17GB)

DFS Used%: 1.88%

DFS Remaining%: 86.83%

Last contact: Mon May06 16:12:01 CST 2013

Name:192.168.160.141:50010

Decommission Status :Normal

Configured Capacity:5160566784 (4.81 GB)

DFS Used: 138186752(131.79 MB)

Non DFS Used:582406144 (555.43 MB)

DFS Remaining:4439973888(4.14 GB)

DFS Used%: 2.68%

DFS Remaining%: 86.04%

Last contact: Mon May06 16:12:00 CST 2013

此时都表示集群成功。

hadoop集群关闭:stop-all.sh

 

 

 

 

 

 

### Hadoop 集群VMware 16.2.5 上的安装与配置指南 在 VMware 16.2.5 环境中搭建 Hadoop 集群需要经过多个步骤,包括虚拟环境准备、网络配置、免密登录设置以及 Hadoop 的安装与配置。以下是详细的说明: #### 1. VMware 环境准备 确保 VMware 工具已正确安装,并创建至少三台虚拟(例如:Hadoop1、Hadoop2 和 Hadoop3)。每台虚拟应配置足够的 CPU、内存和磁盘空间以支持集群运行[^1]。 #### 2. 虚拟克隆与网络配置 使用 VMware 的克隆功能复制主节点(Hadoop1)到其他节点(Hadoop2 和 Hadoop3)。为每个虚拟分配静态 IP 地址,并确保所有节点可以通过主名互相访问。编辑 `/etc/hosts` 文件以映射主名与 IP 地址的关系: ```bash 192.168.1.101 hadoop1 192.168.1.102 hadoop2 192.168.1.103 hadoop3 ``` #### 3. 免密登录配置 在主节点(Hadoop1)生成 SSH 密钥对,并将其公钥分发到所有节点: ```bash ssh-keygen -t rsa ssh-copy-id hadoop2 ssh-copy-id hadoop3 ``` 验证免密登录是否成功: ```bash ssh hadoop2 ssh hadoop3 ``` 如果无需输入密码即可登录,则配置完成[^1]。 #### 4. JDK 安装 在所有节点上安装 Java 开发工具包(JDK)。可以使用以下命令安装 OpenJDK: ```bash sudo apt update sudo apt install openjdk-8-jdk ``` 确认 JDK 版本: ```bash java -version ``` #### 5. Hadoop 安装 下载并解压 Hadoop 安装包到指定目录: ```bash wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz tar -xvzf hadoop-3.3.1.tar.gz -C /usr/local/ ``` 将 Hadoop 添加到系统路径: ```bash export PATH=$PATH:/usr/local/hadoop-3.3.1/bin export PATH=$PATH:/usr/local/hadoop-3.3.1/sbin ``` #### 6. Hadoop 配置文件修改 编辑 Hadoop 的核心配置文件 `core-site.xml`、`hdfs-site.xml` 和 `mapred-site.xml`。例如,在 `core-site.xml` 中设置 NameNode 地址: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop1:9000</value> </property> </configuration> ``` 在 `hdfs-site.xml` 中配置本数: ```xml <configuration> <property> <name>dfs.replication</name> <value>2</value> </property> </configuration> ``` #### 7. 启动 Hadoop 集群 格式化 NameNode 并启动 HDFS 和 YARN 服务: ```bash hdfs namenode -format start-dfs.sh start-yarn.sh ``` 检查集群状态: ```bash jps ``` ### 注意事项 - 确保所有节点的时间同步。 - 配置防火墙规则以允许必要的端口通信。 - 根据实际需求调整 Hadoop 的配置参数。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值