Hadoop--海量文件的分布式计算处理方案

Hadoop实战指南
本文详细介绍Hadoop的基础概念、编程步骤及运行模式,并通过一个简单的Grep案例演示如何编写和运行Hadoop程序。

Hadoop Google MapReduce 的 一个Java 实现。MapReduce 是一种简化的分布式编程模式,让程序自动分布到一个由普通机器组成的超大集群上并发执行。就如同java 程序员可以 不考虑内存泄露一样, MapReducerun-time 系统会解决输入数据的分布细节,跨越机器集群的程序执行调度,处理机器的失效,并且管理机器之间的通讯请求。这样的模式允许程序员可以不需要有什么并发处理或者分布式系统的经验,就可以处理超大的分布式系统得资源。

    一、概论

    作为Hadoop 程序员,他要做的事情就是:    

1 、定义Mapper ,处理输入的Key-Value 对,输出中间结果。    

2 、定义Reducer ,可选,对中间结果进行规约,输出最终结果。    

3 、定义InputFormat OutputFormat ,可选,InputFormat 将每行输入文件的内容转换为Java 类供Mapper 函数使用,不定义时默认为String    

4 、定义main 函数,在里面定义一个Job 并运行它。    

    然后的事情就交给系统了。    

1. 基本概念:HadoopHDFS 实现了googleGFS 文件系统,NameNode 作为文件系统的负责调度运行在master DataNode 运行在每个机器上。同时Hadoop 实现了GoogleMapReduceJobTracker 作为MapReduce 的总调度运行 在masterTaskTracker 则运行在每个机器上执行Task    

2.main() 函数,创建JobConf ,定义MapperReducerInput/OutputFormat 和输入输出文件目录,最后把Job 提交給JobTracker ,等待Job 结束。    

3.JobTracker ,创建一个InputFormat 的实例,调用它的getSplits() 方法,把输入目录的文件拆分成FileSplist 作为Mapper task 的输入,生成Mapper task 加入Queue    

4.TaskTracker JobTracker 索求下一个Map/Reduce             Mapper Task 先从InputFormat 创建RecordReader ,循环读入FileSplits 的内容生成KeyValue ,传给Mapper 函数,处理完后中间结果写成SequenceFile.      Reducer Task 从运行MapperTaskTrackerJetty 上使用http 协议获取所需的中间内容(33% ),Sort/Merge 后(66% ),执行Reducer 函数,最后按照OutputFormat 写入结果目录。

      TaskTracker 10 秒向JobTracker 报告一次运行情况,每完成一个Task10 秒后,就会向JobTracker 索求下一个Task

      Nutch 项目的全部数据处理都构建在Hadoop 之上,详见Scalable Computing with Hadoop

 

    二、程序员编写的代码

    我们做一个简单的分布式的Grep ,简单对输入文件进行逐行的正则匹配,如果符合就将该行打印到输出文件。因为是简单的全部输出,所以我们只要写Mapper 函数,不用写Reducer 函数,也不用定义Input/Output Format

package  demo.hadoop

public   class  HadoopGrep {  

 

public   static   class  RegMapper  extends  MapReduceBase  implements  Mapper {   

private  Pattern pattern;   

public   void  configure(JobConf job) {    

pattern  =  Pattern.compile(job.get( " mapred.mapper.regex " ));   }   

 

public   void  map(WritableComparable key, Writable value, OutputCollector output, Reporter reporter)      throws  IOException {    

String text  =  ((Text) value).toString();    

Matcher matcher  =  pattern.matcher(text);    

if  (matcher.find()) {     output.collect(key, value);    }   

}  }  

private  HadoopGrep () {  }  //  singleton  

 

public   static   void  main(String[] args)  throws  Exception {      

JobConf grepJob  =   new  JobConf(HadoopGrep. class );   

grepJob.setJobName( " grep-search " );   

grepJob.set( " mapred.mapper.regex " , args[ 2 ]);   

grepJob.setInputPath( new  Path(args[ 0 ]));   

grepJob.setOutputPath( new  Path(args[ 1 ]));   

grepJob.setMapperClass(RegMapper. class );   

grepJob.setReducerClass(IdentityReducer. class );          

JobClient.runJob(grepJob);  

} }

 

        整个代码非常简单,丝毫没有分布式编程的任何细节。

       . 运行Hadoop 程序

        Hadoop 这方面的文档写得不全面,综合参考GettingStartedWithHadoop  Nutch Hadoop Tutorial 两篇后,再碰了很多钉子才终于完整的跑起来了,记录如下:       3.1 local 运行模式        完全不进行任何分布式计算,不动用任何namenode,datanode 的做法,适合一开始做调试代码。        解压hadoop ,其中conf 目录是配置目录,hadoop 的配置文件在hadoop-default.xml ,如果要修改配置,不是直接修改该文件,而是修改hadoop-site.xml ,将该属性在hadoop-site.xml 里重新赋值。        hadoop-default.xml 的默认配置已经是local 运行,不用任何修改,配置目录里唯一必须修改的是hadoop-env.sh JAVA_HOME 的位置。

       将编译好的HadoopGrepRegMapper.class 放入hadoop/build/classes/demo/hadoop/ 目录 找一个比较大的log 文件放入一个目录,然后运行

       hadoop / bin / hadoop demo.hadoop.HadoopGrep log 文件所在目录  任意的输出目录 grep 的字符串

      查看输出目录的结果,查看hadoop/logs/ 里的运行日志。        在重新运行前,先删掉输出目录。  

3.2 单机集群运行模式

        现在来搞一下只有单机的集群. 假设以完成3.1 中的设置,本机名为hadoopserver        1.    然后修改hadoop-site.xml ,加入如下内容:

< property >    < name > fs.default.name </ name >    < value > hadoopserver:9000 </ value > </ property > < property >    < name > mapred.job.tracker </ name >    < value > hadoopserver:9001 </ value > </ property > < property >    < name > dfs.replication </ name >    < value > 1 </ value > </ property >

 

  2. 增加ssh 不输入密码即可登陆。     因为Hadoop 需要不用输入密码的ssh 来进行调度,在不su 的状态下,在自己的home 目录运行ssh-keygen -t rsa , 然后一路回车生成密钥,再进入.ssh 目录,cp id_rsa.pub authorized_keys     详细可以man 一下ssh, 此时执行ssh hadoopserver ,不需要输入任何密码就能进入了。

  3. 格式化namenode ,执行   bin/hadoop namenode -format   4. 启动Hadoop      执行hadoop/bin/start-all.sh, 在本机启动namenode,datanode,jobtracker,tasktracker     5. 现在将待查找的log 文件放入hdfs,       执行hadoop/bin/hadoop dfs 可以看到它所支持的文件操作指令。       执行hadoop/bin/hadoop dfs put log 文件所在目录 in ,则log 文件目录已放入hdfs/user/user-name/in 目录中

  6. 现在来执行Grep 操作       hadoop/bin/hadoop demo.hadoop.HadoopGrep in out       查看hadoop/logs/ 里的运行日志,重新执行前。运行hadoop/bin/hadoop dfs rmr out 删除out 目录。   7. 运行hadoop/bin/stop-all.sh 结束

  3.3 集群运行模式   假设已执行完3.2 的配置,假设第2 台机器名是hadoopserver2   1. 创建与hadoopserver 同样的执行用户,将hadoop 解压到相同的目录。   2. 同样的修改haoop-env.sh 中的JAVA_HOME 及修改与3.2 同样的hadoop-site.xml   3. hadoopserver 中的/home/username/.ssh/authorized_keys 复制到hadoopserver2, 保证hadoopserver 可以无需密码登陆hadoopserver2      scp /home/username/.ssh/authorized_keys  username@hadoopserver2:/home/username/.ssh/authorized_keys     4. 修改hadoop-serverhadoop/conf/slaves 文件, 增加集群的节点,将localhost 改为     hadoop-server     hadoop-server2   5.hadoop-server 执行hadoop/bin/start-all.sh    将会在hadoop-server 启动namenode,datanode,jobtracker,tasktracker    hadoop-server2 启动datanode tasktracker     6. 现在来执行Grep 操作      hadoop/bin/hadoop demo.hadoop.HadoopGrep in out     重新执行前, 运行hadoop/bin/hadoop dfs rmr out 删除out 目录   7. 运行hadoop/bin/stop-all.sh 结束。    

四、效率

     经测试,Hadoop 并不是万用灵丹,很取决于文件的大小和数量,处理的复杂度以及群集机器的数量,相连的带宽,当以上四者并不大时,hadoop 优势并不明显。      比如,不用hadoopjava 写的简单grep 函数处理100Mlog 文件只要4 秒,用了hadoop local 的方式运行是14 秒,用了hadoop 单机集群的方式是30 秒,用双机集群10M 网口的话更慢,慢到不好意思说出来的地步。

从此就将运行从local 文件系统转向了hadoophdfs 系统,mapreducejobtracker 也从local 的进程内操作变成了分布式的任务系统,90009001 两个端口号是随便选择的两个空余端口号。     另外,如果你的/tmp 目录不够大,可能还要修改hadoop.tmp.dir 属性。          RegMapper 类的configure() 函数接受由main 函数传入的查找字符串,map() 函数进行正则匹配,key 是行数,value 是文件行的内容,符合的文件行放入中间结果。         main() 函数定义由命令行参数传入的输入输出目录和匹配字符串,Mapper 函数为RegMapper 类,Reduce 函数是什么都不做,直接把中间结果输出到最终结果的的IdentityReducer 类,运行Job

 

 

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值