Hadoop 安装

环境:redhat 4  三台、jdk 6u21、hadoop-0.20.2

(1)用root登陆,建立hadoop用户 
useradd hadoop 
passwd hadoop


(2)分别在四台机器上运行二进制文件:./jdk-6u21-linux-x64-rpm.bin 


(3)编辑四台机器的/etc/profile,增加如下内容
export  JAVA_HOME=/usr/jdk1.6.0_21
export  CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export  PATH=
$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH:$HOME/bin  

(4)以root登录,在master和 slave1上分别修改/etc/hosts,添加如下内容:                  
192.168. 0.100  master                  
192.168.0.101  slaveA   

192.168.0.102  slaveB


(5)Hadoop的安装,将下载好的hadoop-0.20.2.tar.gz文件上传到master               
                tar  xvfz  hadoop-0.20.2.tar.gz  
             
配置/etc/profile                
export  HADOOP_HOME=/home/hadoop/hadoop-0.20.2                  
export PATH=$PATH:$HADOOP_HOME/bin    

   (6)修改Hadoop的配置文件

masters文件里添加如下内容:                     
192.168.0.100
slaves文件添加如下内容:                   
192.168.0.101

192.168.0.102


hadoop-env.sh中添加如下语句:
export JAVA_HOME=/usr/jdk1.6.0_21

core-site.xml添加如下语句在<configuration></configuration>之间:
<property>
<name>fs.default.name</name>
<value>hdfs:// 192.168.0.100:9000</value>
</property>

<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property> 


mapred-site.xml添加如下语句在<configuration></configuration>之间:
<property>
<name>mapred.job.tracker</name>
<value>192.168.0.100:9001</value>
</property>


hdfs-site.xml添加如下语句在<configuration></configuration>之间,
replication 默认为3,如果不修改,datanode 少于三台就会报错
<property>
<name>dfs.replication</name>
<value>2</value>
</property>


 (7)配置好的hadoop发送到salves上:

scp -r /home/hadoop/hadoop-0.20.2 slaveA:/home/hadoop

(8)设置ssh密钥每个机器上都要如此

su - hadoop              
ssh-keygen -t rsa       
hadoop生成其密钥对,询问其保存路径时直接回车采用默认路径,当提示要为生成的密钥输入passphrase的时 候,直接回车,也就是将其设定为空密码。生成的密钥对id_rsa,id_rsa.pub,默认存储在/root/.ssh目录下
chmod 755 .ssh           #赋予755权限
cd .ssh
#ls –l
id_rsa  id_rsa.pub

master上执行:

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys #把公用密匙添加到authorized_keys 文件中(此文件最后一定要赋予644权限)

ssh slaveA cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

ssh slaveB cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys


scp ~/.ssh/authorized_keys slaveA:~/.ssh/authorized_keys

scp ~/.ssh/authorized_keys slaveB:~/.ssh/authorized_keys


 (9)在master上连接所有slave节点,输入如下命令,上有几个slave节点就要输入几次,注意每次输入后,要返回master节点,重新输入命令:
ssh slave1  #需要选择yes/no 选择yes即可


此时 ls .ssh 结果如下:
authorized_keys  id_rsa  id_rsa.pub  known_hosts

ssh slaveA 不需要输入密码就算配置成功

(10)./hadoop namenode -format  #格式化文件系统
        ./start-all.sh                       #启动namenode上的hadoop 
  确保9001和9000端口是通的。

jps  查看是否启动正常!  
查看50070,54310,50030端口是否启动 或者远程访问如下链接          
#1080       
#50030
#50060


 netstat -tnl     
http://master:50070访问 
http://master:50030



### Hadoop 安装教程 #### 准备工作 为了成功安装Hadoop,需先确认已正确安装并配置好Java环境。可以通过`java -version`命令来验证当前系统的Java版本。 #### 下载Hadoop软件包 前往Apache官方镜像站点下载最新的稳定版Hadoop压缩文件。对于2024年的最新版本,建议选择3.x系列中的一个稳定发布版本[^1]。 #### 解压与部署 解压所下载的tar.gz格式的Hadoop压缩包到指定目录下,例如 `/usr/local/` 或其他适合的位置: ```bash tar zxvf hadoop-3.4.0.tar.gz -C /usr/local/ ``` #### 配置环境变量 编辑`.bashrc`或其他shell初始化脚本,在其中加入Hadoop的相关路径设置以便于全局调用: ```bash export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin source ~/.bashrc ``` #### 修改核心配置文件 进入Hadoop配置文件夹并对`hadoop-env.sh`进行必要的调整以适应本地环境需求,特别是要确保指定了正确的JAVA_HOME位置[^2]: ```bash vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh ``` 在该文件内找到并修改如下行指向实际安装JDK路径: ```properties export JAVA_HOME=/path/to/java/home ``` #### 启动Hadoop集群 完成上述准备工作之后就可以尝试启动单节点伪分布式模式下的HDFS服务了: ```bash $HADOOP_HOME/sbin/start-dfs.sh ``` 通过执行特定命令可以查看Hadoop是否正常运行以及其具体版本信息: ```bash /usr/local/hadoop/bin/hadoop version ``` 此命令会显示详细的编译时间戳和其他元数据信息,证明Hadoop已被成功安装并能够正常使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值