ubuntu下hadoop单机伪分布式系统配置

本来想在三台虚拟机上配置分布式hadoop系统,但是配了很久也没配置成功,时间是把杀猪刀,没办法最后只好配置了单机伪分布系统来进行一些简单的实验。

配置环境:window7ubuntu11.10,

要配置hadoop主要需要安装这些部件:java虚拟机,sshhadoop。下面详细介绍这三个部件的安装方法。

一.安装java虚拟机。

1.下载JDK,我下载的是jdk-6u30-linux-i586.bin

2.将JDK 复制到虚拟机中(直接复制粘贴即可)。

3.在ubuntu中选择一个目录安装java,也可以新建目录。我是在/usr/local目录下新建了一个java目录。命令如下:sudo mkdir /usr/local/java建目录

4.将ubuntu桌面的JDK复制到java目录下                                      :sudo cp /home/lc3/Desktop/jdk-6u30-linux-i586.bin /usr/local/java

5.改变JDK权限:sudo chmod a+x /usr/local/java/jdk-6u30-linux-i586.bin

6.进入JDK目录下安装JDKcd /usr/local/java     sudo chmod a+x /usr/local/java/jdk-6u30-linux-i586.bin 

7.设置环境变量:用vi命令打开.bashrc 文件(这里要注意vi命令的用法,它和一般的文本编辑是不一样的),sudo vi .bashrc 打开后在文件最后加上如下几句:PATH=$PATH:/usr/local/java/jdk1.6.0_30/bin

CLASSPATH=/usr/local/java/jdk1.6.0_30/lib:/usr/local/java/jdk1.6.0_30/jre/lib:.

export PATH

export CLASSPATH 

(这里要根据你的安装目录更改)

8.最后测试JDK 是否安装成功:重启系统,输入 java -version如果输出java版本号则说明安装成功。

二.安装ssh

1.首先输入ssh localhost看系统是否安装了ssh

2.如果没有安装则用如下命令安装:sudo apt-get install openssh-server 

3.安装后用ssh loclahost 查看是否安装成功。

三.安装hadoop并运行

1.下载hadoop,我用的是hadoop-1.0.1.tar.gz

2.建立安装目录:sudo mkdir /home/hadoop

3.复制到目录:sudo cp /home/lc3/Desktop/hadoop-1.0.1.tar.gz  /home/hadoop

4.改变权限:sudo chmod a+rx /home/hadoop

5.进入目录,安装:sudo cd /home/hadoop   sudo tar -xzvf  hadoop-1.0.1.tar.gz

6.配置hadoop:先进入目录下 cd /home/hadoop/hadoop-1.0.1/conf

编辑hadoop-env.sh文件:vi hadoop-env.sh

在最后加入java路径,export JAVA_HOME=/usr/local/java/jdk1.6.0_30

编辑core-site.xml文件:vi core-site.xml

在文件中加入

<property>

      <name>fs.default.name</name>

      <value>hdfs://localhost:9000</value>

  </property>

编辑hdfs-site.xml文件:vi hdfs-site.xml

在文件中加入

<property>

      <name>dfs.replication</name>

      <value>1</value>

     </property>

编辑mapred-site.xml文件:vi mapred-site.xml

在文件中加入

<property>

      <name>mapred.job.tracker</name>

      <value>localhost:9001</value>

</property>

7.这样hadoop就配置好了,下面启动hadoop

首先进入hadoop安装目录:cd /home/hadoop/hadoop-1.0.1

接着格式化hadoop文件系统:bin/hadoop namenode -format

然后启动hadoop bin/start-all.sh

验证hadoop是否安装成功,打开ubuntu的浏览器分别输入

http://localhost:50030    (MapReduce的Web页面) 

http://lcoalhost:50070    (HDfS的web页面) 

如果能正常打开则安装成功。

8.运行hadoop自带的wordcount程序

首先进入hadoop安装目录:cd /home/hadoop/hadoop-1.0.1

接着建立一个目录: mkdir input

将要count的文件复制到这个目录中:cp conf/* input (我是将conf目录的文件复制到这个目录下)

运行程序:bin/hadoop jar hadoop-examples-1.0.1.jar  wordcount input output

input为要count的文件目录,output为输出的目录,output要先清空或删除)

查看文件结果:bin/hadoop fs -cat output/*

9.关闭hadoop

hadoop安装目录下输入:bin/stop-all.sh

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值