01.hadoop集群环境搭建

本文详细介绍了Hadoop集群的搭建步骤,包括安装JDK、配置网络参数、设置SSH免密码登录、安装Hadoop等关键环节,并提供了配置文件的具体设置方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

hadoop集群搭建的步骤

1.安装jdk
2修改ip地址
3.关闭防火墙
4.修改hostname
5.设置ssh自动登陆
6.安装hadoop
-----------------------------------------------------------------------
1.1安装jdk

 
传jdk-6u24-linux-i586.bin到/home/





 
#cd /home/
#./jdk-6u24-linux-i586.bin
#mv jdk-6u24-linux-i586.bin jdk
#vi /etc/profile
export JAVA_HOME=/home/jdk 
export PATH=$JAVA_HOME/bin:$PATH
退
#source /etc/profile
#java -version
 

1.2修改ip地址

    ifcfg-eth0考:
    vim /etc/sysconfig/network-scripts/ifcfg-eth0

 DEVICE="eth0"
BOOTPROTO="static"
ONBOOT="yes"
TYPE="Ethernet"
IPADDR=192.168.8.100
PREFIX=24
GATEWAY=192.168.8.1
1.3关闭防火墙,修改主机名(hostname)
 
 
#hostname <>
#vi /etc/sysconfig/network
HOSTNAME=<>     退
/etc/hosts
 
改/etc/sysconfig/network-scripts/
#service iptables stop


1.5.设置ssh免密码登录
  Hadoop运行过程中需要管理远端Hadoop守护进程,在Hadoop启动以后,NameNode是通过SSH(Secure Shell)来无密码登录启动和停止各个DataNode上的各种守护进程的同样原理,DataNode上也能使用SSH无密码登录到NameNode。

 
namenodedatanode
#ssh-keygen  -rsa
~/.ssh/id_rsa  id_rsa.pub
namenode
#cd ~/.ssh/
#scp id_rsa.pub root@<datanodeIP>:/home
datanode
#cd /home/
#cat id_rsa.pub >>/root/.ssh/authorized_keys
 

1.6.安装hadoop
    1.6.1在namenode上安装hadoop

 
HadoopHADOOP_HOME/HOME/hadoop
1.hadoop-1.0.4.tar.gz到/home
#cp hadoop-1.0.4.tar.gz /home
2.
#cd /home
#tar -zxvf hadoop-1.0.4.tar.gz
#mv hadoop-1.0.hadoop
3./etc/profile
#vi /etc/profile
export JAVA_HOME=/home/java
export HADOOP_HOME=/home/hadoop
export PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin
退
#source /etc/profile
 1.6.3修改hadoop的配置文件
 
1.conf/hadoop-env.sh
export JAVA_HOME=/home/java
export HADOOP_HEAPSIZE=1024
export HADOOP_PID_DIR=/home/hadoop/pids
退
2.conf/core-site.xml
<property>
  <name>fs.default.name</name>
  <value>hdfs://hadoop00:9000</value>
</property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/home/hadoop/tmp</value>
</property>
3.conf/hdfs-site.xml
<property>
  <name>dfs.replication</name>
  <value>2</value>
</property>
4.conf/mapred-site.xml
<property>
  <name>mapred.job.tracker</name>
  <value>hdfs://hadoop00:9001/</value>
</property>




 

 

 
5.master
conf/masters
hadoop00
6.pei'zhislaves
conf/slaves
hadoop01
hadoop02
hadoop03
7:hadoopdatanode
hadoop00hadoopjdk、/etc/hosts、/etc/profilehadoop01hadoop02hadoop03
#cd $HADOOP_HOME/..
#scp -hadoop hadoop01:/home
#scp -hadoop hadoop02:/home
#scp -hadoop hadoop03:/home
 

1.6.4启动和停止hadoop集群

 
#hadoop dfsadmin -report
hadoop0
Hadoop,namenode
#cd $HADOOP_HOME /bin
#hadoop namenode –format
Hadoop
#cd $HADOOP_HOME/bin
#./start-all.sh
safemodeException
hadoop dfsadmin -safemode leave
Hadoop
Hadoop
cd $HADOOP_HOME/bin
#./stop-all.sh
 

转载于:https://www.cnblogs.com/zhangshiwen/p/4528398.html

### Hadoop集群启动后的监控方式及确认运行状态 Hadoop集群启动后,可以通过多种方式进行监控以确认其运行状态。以下是具体的监控方法和相关说明: #### 1. 使用Web界面监控HDFS Hadoop集群启动后,可以通过内置的Web界面查看HDFS的状态信息。访问NameNode所在服务器的IP地址即可进入管理页面[^3]。对于Hadoop版本为3.0以前的集群,默认端口为9870;而对于Hadoop 3.0及以后的版本,默认端口为50070[^3]。 例如,如果NameNode所在的服务器IP为`192.168.1.100`,可以在浏览器中输入以下URL访问HDFS监控界面: ``` http://192.168.1.100:9870 (Hadoop 3.0以前) http://192.168.1.100:50070 (Hadoop 3.0及以后) ``` 在该页面上,可以查看到如下信息: - **Overview**:显示NameNode的启动时间、版本号、编译版本等基本信息。 - **Live Nodes**:列出当前所有存活的DataNode节点及其状态。 - **Dead Nodes**:列出所有离线或不可用的DataNode节点。 - **Cluster Summary**:提供集群的整体存储容量、已使用空间、剩余空间等统计信息。 #### 2. 使用命令行工具检查服务状态 除了Web界面外,还可以通过命令行工具来确认Hadoop集群的服务状态。例如,执行以下命令可以查看Hadoop守护进程是否正常运行: ```bash jps ``` 该命令会列出当前Java进程中与Hadoop相关的进程名称,包括但不限于以下内容: - `NameNode` - `SecondaryNameNode` - `DataNode` - `ResourceManager` - `NodeManager` 如果上述进程均正常显示,则说明Hadoop集群的核心组件已成功启动[^1]。 #### 3. 使用Ambari进行集群监控 Apache Ambari是一个开源的Hadoop集群管理和监控工具,可以提供更全面的集群状态视图[^4]。安装并配置Ambari后,可以通过其Web界面查看Hadoop集群中各个服务的运行状态、性能指标以及日志信息。 Ambari的主要功能包括: - 实时监控Hadoop集群中的服务(如HDFS、YARN、MapReduce等)。 - 提供集群健康状况的概览。 - 支持对Hadoop集群进行配置调整和故障排查。 #### 4. 获取启动成功的状态截图 为了验证Hadoop集群是否成功启动,可以从以下几个方面获取相关截图: - **HDFS Web界面**:访问`http://<namenode-ip>:9870`或`http://<namenode-ip>:50070`,截取包含Overview和Live Nodes信息的页面。 - **命令行输出**:执行`jps`命令后,截取显示Hadoop核心进程的终端窗口。 - **Ambari监控界面**(如果已安装):截取Ambari提供的集群健康状态和各服务运行情况的页面。 --- ### 示例代码:检查Hadoop服务状态 以下是一个简单的脚本,用于检查Hadoop集群中各服务是否正常运行: ```bash #!/bin/bash # 检查NameNode是否运行 if pgrep -x "NameNode" > /dev/null then echo "NameNode is running." else echo "NameNode is not running." fi # 检查DataNode是否运行 if pgrep -x "DataNode" > /dev/null then echo "DataNode is running." else echo "DataNode is not running." fi # 检查其他关键服务... ``` --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值