hadoop 0.20.2 伪分布式安装和配置

本文提供了一步一步的指导,教你如何在Linux环境下安装和配置Hadoop集群,包括Java环境搭建、Hadoop各组件配置及启动等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.查看现有linux下java版本

rpm -qa|grep gcj

rpm -qa|grep jdk

java -version

删除已安装java

rpm -e --nodeps java..........(复制查出的rpm)

2.下载jdk7安装

tar -zxvf /tmp/jdk-7u72-linux-i586.tar.gz

3.下载hadoop安装

tar -zxvf /tmp/hadoop-0.20.2.tar.gz

4.本地ssh无密登录

cd /root/.ssh

ssh-keygen -t rsa

cat id_rsa.pub >> authorized_keys

5.修改配置文件

vim /etc/profile

在文件最后加上

# set Java environment
export JAVA_HOME=/usr/java
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
# set Hadoop environment
export  HADOOPHOME=/usr/hadoop
export  PATH=$HADOOPHOME/bin:$PATH

6.修改hadoop配置文件,在conf目录下

1)修改vim hadoop-env.sh

export JAVA_HOME=/usr/java

 2)vim core-site.xml

 <configuration>

<property>
                <name>fs.default.name</name>
                <value>hdfs://localhost:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/usr/hadoop/tmp</value>
        </property>

</configuration>

  3)vim hdfs-site.xml

<configuration>

      <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>dfs.name.dir</name>
                <value>/usr/hadoop/hdfs/name</value>
        </property>
        <property>
                <name>dfs.data.dir</name>
                <value>/usr/hadoop/hdfs/data</value>
        </property>

</configuration>

4)vim mapred-site.xml

<configuration>

<property>

                <name>mapred.job.tracker</name>
                <value>localhost:9001</value>
        </property>
        <property>
                <name>mapred.local.dir</name>
                <value>/usr/hadoop/mapred/local</value>
        </property>
        <property>
                <name>mapred.system.dir</name>
                <value>/usr/hadoop/mapred/system</value>
        </property>

</configuration>

5)配置master文件,加入namenode的ip地址

localhost

6)配置slaves文件,加入所有datanode的ip地址

localhost

7.启动

cd /usr/hadoop

./bin/hadoop namenode -format

./bin/start-all.sh

8.jps检查启动情况

9.浏览器访问http://localhost:50030和http://localhost:50070


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值