【Hadoop】MapReduce Job Files

Hadoop在运行MapReduce作业时,JobTracker和TaskTracker会生成并维护一系列文件,用于作业的执行、管理和监控。部分文件存储在HDFS,便于分发,部分存储在JobTracker和TaskTracker本地。主要的job文件类型包括Staging目录和History目录。Staging目录用于用户提交作业时将Job相关文件拷贝到HDFS;History目录则通过HistoryServer记录Job的历史运行状态,如任务尝试的启动时间、状态和计数器等。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hadoop运行一个MapReduce Job后,JobTracker和TaskTracker都需要创建/维护一系列的文件以便运行/管理/监控job。其中,有部分job files存储在HDFS从而可以分发到各个TT,有部分存储在JT和TT本地。


JobTracker Files

下表总结了几种主要的job file:


FSLocation PropertyChild DirectoryDirectory File ListFile Type
HDFSmapreduce.jobtracker.staging.root.dir<userId>/.staging/<jobId>job.xml
job.jar
job.split
job.splitmetainfo
Temporary
HDFSmapred.system.dir<jobId>jobTokenTemporary
Localmapred.local.dirjobTracker<jobId>.xmlTemporary
Localhadoop.job.history.location.<jobId>_<timestamp>_<userId>_<jobName>
<jobId>_conf.xml
Persistent

其中有两点解释一下:

  1. Staging directory: 用户提交Job时,客户端需要将Job相关的文件拷贝到HDFS以便JobTracker随后引用。这在另一篇文章《MapReduce Job Submission Files》中讨论过
  2. History directory: 用户之所以可以通过UI来监测Job运行以及历史信息,是因为JobTracker实现了一个HistoryServer,并将Job运行的历史信息记录到Local FS。最主要的是记录历史运行状态的文件,记录了包括提交/完成时间,每个Task Attemp的启动时间,运行状态,Counter等。

Cloudera Blog上有一篇总结Job Files的文章http://blog.cloudera.com/blog/2010/11/hadoop-log-location-and-retention/

TaskTracker Files
真正执行Task的TaskTracker在Local FileSystem也需要维护一系列的job files,下面这篇文章的"Directory Structure"部分有详细总结:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值