
Hadoop 2.x
文章平均质量分 83
Hadoop 相关
Lic_LiveTime
在提升的路上努力奔跑,不要让梦想,仅仅是梦想!
展开
-
Hadoop 2.x 源码阅读的准备
#简介之前有阅读和分析过部分hadoop 2.x 的源码,但是没有进行整理,现在计划把源码进行重新学习和分析,分析顺序是MapReduce、HDFS、YARN。希望自己可以坚持下来。阅读源码的步骤官网下载Hadoop 2.x 源码包,解压。 http://www.apache.org/dyn/closer.cgi/hadoop/common在此网站包含很多连接,选择想要阅读的源码版本下载,源码包原创 2016-11-03 20:21:09 · 651 阅读 · 0 评论 -
Hadoop 的Writable序列化接口
序列化和反序列化序列化: 将数据结构或对象转换成二进制串的过程。以便在网络上传输或者写入到硬盘进行永久存储 反序列化:将在序列化过程中所生成的二进制串转换成数据结构或者对象的过程。在Hadoop中,主要应用于进程通信和永久存储。进程将对象序列化为字节流,通过网络传输到另一进程,另一进程接收到字节流,通过反序列化转回到结构化对象,以达到进程间通信。Mapper、Combine、Reduce等过程中,原创 2016-11-05 13:38:19 · 1157 阅读 · 0 评论 -
Hadoop 自定义key
自定义key简介hadoop中自定义key的组成是由writable类型组成。如果用java的数据类型,最终还是要转换成writable类型。 自定义key要继承WritableComparable接口,原因参考文章 Hadoop 的Writable序列化接口自定义key例子public class MyKeyWritable implements WritableComparable<Flag原创 2016-11-19 14:00:08 · 819 阅读 · 0 评论