完成了sst, 现在要把它作为hadoop mapreduce 的输入和输出。
要实现的东西还不少,InputFormat、InputSplit、RecordReader 及 OutputFormat、OutputSplit、RecordWriter。
看了hadoop默认的一些输入输出格式的实现,貌似挺繁琐的。虽然只是从sst接口适配过去。
查了很多资料,下面这篇帮助挺大的。
[url]http://www.cnblogs.com/spork/archive/2010/01/11/1644346.html[/url]
要实现的东西还不少,InputFormat、InputSplit、RecordReader 及 OutputFormat、OutputSplit、RecordWriter。
看了hadoop默认的一些输入输出格式的实现,貌似挺繁琐的。虽然只是从sst接口适配过去。
查了很多资料,下面这篇帮助挺大的。
[url]http://www.cnblogs.com/spork/archive/2010/01/11/1644346.html[/url]
本文探讨了如何将SST文件格式适配为Hadoop MapReduce任务的输入和输出格式,涉及InputFormat、RecordReader、OutputFormat及RecordWriter等组件的具体实现。
3869

被折叠的 条评论
为什么被折叠?



