hadoop

http://www.ibm.com/developerworks/cn/linux/l-hadoop-1/

http://www.ibm.com/developerworks/cn/linux/l-hadoop-2/

http://www.ibm.com/developerworks/cn/linux/l-hadoop-3/

http://hadoop.apache.org/common/docs/r0.18.2/cn/quickstart.html#FullyDistributed

http://www.cnblogs.com/wayne1017/archive/2007/03/20/678724.html

 

1. 部署测试, 3台机器,192.168.1.10为namenode192.168.1.11/12为datanode

先配置好无密码ssh登录各个机器(包括本机)

 

下载hadoop-0.21.0.tar.gz, 解压到hadoop-0.21.0, 修改conf目录下的配置文件后拷贝到3台机器上

 

hadoop-env.sh

修改JAVA_HOME路径

 

core-site.xml

<configuration>

<property>

         <name>fs.default.name</name>

         <value>hdfs://192.168.1.10:9900</value>  <!-- datanode会连接这个地址 -->

   </property>

</configuration>

 

 

hdfs-site.xml

<configuration>

    <property>

         <name>dfs.replication</name>

         <value>2</value>  <!-- 文件复制数2 -->

    </property>

</configuration>


mapred-site.xml
<configuration>
    <property>
         <name> mapred.job.tracker </name>
         <value> 192.168.1.10:990 1</value>
     </property>
</configuration>

master
192.168.1.10

slaves
192.168.1.11
192.168.1.12

2. 在 192.168.1.10启动服务
2.1 格式化namenode
bin/hadoop namenode -format
2.2 启动
bin/start-all.sh    //这个版本的stat-dfs.sh有BUG, 稍微修改一下可用
http:// 192.168.1.10:50070可以看到namenode的信息, live node应该有2个
有错误的话,可以看logs目录下的日志

3. 命令测试
bin/hadoop fs -ls
创建目录input
bin/hadoop fs -mkdir input
把当前目录下的拷贝的input目录
bin/hadoop fs -put README.txt input
bin/hadoop fs -ls input
显示文件内容
bin/hadoop fs -cat input/README.txt
执行字符个数统计map-reduce, 结果存放到output目录
bin/hadoop jar hadoop-mapred-examples-0.21.0.jar wordcount input output
4.java接口
4.1读写文件




 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值