1、几个问题的回答
为什么现在要阅读Hadoop的源代码?
- 从源代码的层面去深入地理解Hadoop的架构与设计原理,从而为更好地使用和扩展Hadoop打下坚实的基础。
- 已经有了一定的知识积累,特别是Java,数据结构和算法,数据库,数据仓库,Linux,并行计算,计算机理论,数据挖掘,机器学习等。
阅读Hadoop的源代码能学到什么?
- hadoop的原理与实现。
- 分布式系统的设计原理与实现。
- Java的标准库和开源工具。
- 学习Linux的操作与原理。
前几天把ubuntu 12.04 LTS升级为ubuntu 14.04 LTS,但是对于分析Hadoop源代码来说,差异不是很大。全部过程需要安装JDK,Eclipse,Ant,Hadoop,而JDK和Eclipse的安装就省略了。
- 下载apache-ant-1.8.3-bin.tar.gz:http://download.youkuaiyun.com/detail/shengshengwang/8111935
- 下载hadoop-1.0.0.tar.gz:上传权限不够,自己下载即可。
环境变量/etc/profile文件配置,如下所示:
- export JAVA_HOME="/home/wss/Java/jdk1.7.0_09"
- export JRE_HOME="$JAVA_HOME/jre"
- export PATH="$PATH:$JAVA_HOME/bin:$PATH"
- export CLASSPATH=".:$JAVA_HOME/lib:$CLASSPATH"
- export HADOOP_HOME_WARN_SUPPRESS=1
- export HADOOP_HOME="/home/wss/hadoop-1.0.0"
- export PATH="$PATH:$HADOOP_HOME/bin:$PATH"
- export ANT_HOME="/home/wss/apache-ant-1.8.3"
- export PATH="$PATH:$ANT_HOME/bin:$PATH"
2、创建Eclipse项目
解压下载的hadoop-1.0.0.tar.gz,假设解压后的根目录为/home/wss/hadoop-1.0.0,进入项目的根目录,我们开始将代码导入Eclipse,如下所示:
- wss@hadoop:~/hadoop-1.0.0$ ant eclipse
由于目前只分析Common和HDFS两个模块,在Project -> Properties -> Java Build Path的Source页只保留两个目录,分别是core和hdfs,如下所示:
说明:
完成上述工作以后,Eclipse提示一个错误:“Unbound classpath variable: 'ANT_HOME/lib/ant.jar' in project 'hadoop-1.0.0'”,自行解决。
3、Hadoop的源代码组织
Hadoop 1.0的发行包中,Common、HDFS和MapReduce三个模块还是打包在一起的,它们的实现分别位于core、hdfs和mapred子目录中。源代码目录src下还有若干值得关注的子目录,如下所示:
- tools:包含Hadoop的一些实用工具的实现,如存档文件har、分布式拷贝工具distcp、MapReduce执行情况分析工具rumen等。
- benchmarks:包含对Hadoop进行性能测试的两个工具gridmix和gridmix2,通过这些工具,可以测试Hadoop集群的一些性能指标。
- c++:需要提及的是libhdfs,它通过Java的C语言库界面,实现了一套访问HDFS的C接口。
- examples:为开发人员提供了一些使用Hadoop的例子,不过这些例子只涉及MapReduce的API。
- contrib:是contribution的缩写,包含大量Hadoop辅助模块的实现,如在亚马逊弹性计算云上部署、运行Hadoop所需的脚本就在contrib/ec2目录下。
- test:包含项目的单元测试用例,在该目录中能找到Common、HDFS和MapReduce等模块的单元测试代码。
4、小结
阅读分析Hadoop源代码所必需的开发环境搭建过程,包括:安装与配置JDK、安装与配置Eclipse、安装与配置辅助工具的工作。在上述环境中,从零开始建立一个包含Hadoop Common和HDFS的源码环境,为进一步学习Hadoop源代码做好准备,要保持专注精神,长时间学习Java,深入操作Java。