其中红色的配置为必须配置参数
| 参数 | 取值 | 备注 |
|---|---|---|
| fs.default.name |
NameNode | hdfs://主机名/ |
| dfs.hosts/dfs.hosts.exclude | 许可/拒绝DataNode列表。 | 如有必要,用这个文件控制许可的datanode列表。 |
| dfs.replication | 默认: 3 | 数据复制的分数 |
| dfs.name.dir |
举例:/home/username/hadoop/namenode 默认:/tmp | 当这个值是一个逗号分割的目录列表时,nametable数据将会被复制到所有目录中做冗余备份。 |
| dfs.data.dir |
举例:/home/username/hadoop/datanode 默认: /tmp | 当这个值是逗号分割的目录列表时,数据将被存储在所有目录下,通常分布在不同设备上。 |
| | | |
| mapred.system.dir |
Map/Reduce框架存储系统文件的HDFS路径。比如/hadoop/mapred/system/ | 这个路径是默认文件系统(HDFS)下的路径, 须从服务器和客户端上均可访问。 |
| mapred.local.dir | 本地文件系统下逗号分割的路径列表,Map/Reduce临时数据存放的地方。 | 多路径有助于利用磁盘i/o。 |
| mapred.tasktracker.{map|reduce}.tasks.maximum |
某一TaskTracker | 默认为2(2个map和2个reduce),可依据硬件情况更改。 |
| mapred.job.tracker |
JobTracker | 主机:端口 |
| mapred.hosts/mapred.hosts.exclude | 许可/拒绝TaskTracker列表。 | 如有必要,用这个文件控制许可的TaskTracker列表。 |
| hadoop.job.history.user.location |
默认:mapred.output.dir/_logs/history 也可以设置为none 来停用 | 作业的历史文件记录目录 |
conf/slaves 写入全部的slave的机器名或者IP
nameNode记住每个文件被映射成的 blockId。每个blockId对应的block会被复制到不同的机器上多余一份。
HDFS端口
|
参数 |
描述 |
默认 |
配置文件 |
例子值 |
|
fs.default.name |
namenode |
8020 |
core-site.xml |
hdfs://master:8020/ |
|
dfs.http.address |
|
50070 |
|
0.0.0.0:50070 |
|
dfs.datanode.address |
datanode 控制端口 |
50010 |
hdfs-site.xml |
0.0.0.0:50010 |
|
dfs.datanode.ipc.address |
datanode的RPC服务器地址和端口 |
|
hdfs-site.xml |
0.0.0.0:50020 |
|
dfs.datanode.http.address |
datanode的HTTP服务器和端口 |
|
hdfs-site.xml |
0.0.0.0:50075 |
MR端口
|
参数 |
描述 |
默认 |
|
例子值 |
|
mapred.job.tracker |
job tracker交互端口 |
8021 |
mapred-site.xml |
hdfs://master:8021/ |
|
mapred.job.tracker.http.address |
job tracker的web管理端口 |
50030 |
mapred-site.xml |
0.0.0.0:50030 |
|
mapred.task.tracker.http.address |
task tracker的HTTP端口 |
50060 |
mapred-site.xml |
0.0.0.0:50060 |
|
参数 |
描述 |
默认 |
配置文件 |
例子值 |
|
dfs.secondary.http.address |
secondary NameNode web管理端口 |
|
hdfs-site.xml |
0.0.0.0:28680 |
集群目录配置
其他配置
|
参数 |
描述 |
默认 |
配置文件 |
例子值 |
|
dfs.support.append |
支持文件append,主要是支持hbase |
|
hdfs-site.xml |
true |
|
dfs.replication |
文件复制的副本数,如果创建时不指定这个参数,就使用这个默认值作为复制的副本数 |
|
hdfs-site.xml |
2 |
|
参数 |
描述 |
默认 |
配置文件 |
例子值 |
|
dfs.name.dir |
name node的元数据,以,号隔开,hdfs会把元数据冗余复制到这些目录,一般这些目录是不同的块设备,不存在的目录会被忽略掉 |
{hadoop.tmp.dir} /dfs/name |
hdfs-site.xm |
/hadoop/hdfs/name |
|
dfs.name.edits.dir |
node node的事务文件存储的目录,以,号隔开,hdfs会把事务文件冗余复制到这些目录,一般这些目录是不同的块设备,不存在的目录会被忽略掉 |
|
hdfs-site.xm |
${dfs.name.dir} |
|
|
secondary NameNode的元数据以,号隔开,hdfs会把元数据冗余复制到这些目录,一般这些目录是不同的块设备,不存在的目录会被忽略掉 |
${hadoop.tmp.dir} /dfs/namesecondary |
core-site.xml |
/hadoop/hdfs/namesecondary |
|
|
secondary NameNode的事务文件存储的目录,以,号隔开,hdfs会把事务文件冗余复制到这些目录 |
${fs.checkpoint.dir} |
core-site.xml |
${fs.checkpoint.dir} |
|
hadoop.tmp.dir |
临时目录,其他临时目录的父目录 |
/tmp/hadoop-${user.name} |
core-site.xml |
/hadoop/tmp/hadoop-${user.name} |
|
dfs.data.dir |
data node的数据目录,以,号隔开,hdfs会把数据存在这些目录下,一般这些目录是不同的块设备,不存在的目录会被忽略掉 |
${hadoop.tmp.dir} /dfs/data |
hdfs-site.xm |
/hadoop/hdfs/data1/data, /hadoop/hdfs/data2/data |
|
mapred.local.dir |
MapReduce产生的中间数据存放目录,以,号隔开,hdfs会把数据存在这些目录下,一般这些目录是不同的块设备,不存在的目录会被忽略掉 |
${hadoop.tmp.dir} /mapred/local |
mapred-site.xml |
/hadoop/hdfs/data1/mapred/local, /hadoop/hdfs/data2/mapred/local |
|
mapred.system.dir |
MapReduce的控制文件 |
${hadoop.tmp.dir} /mapred/system |
mapred-site.xml |
/hadoop/hdfs/data1/system |
本文深入探讨了Hadoop集群配置的关键参数,包括NameNode、DataNode、JobTracker、TaskTracker等角色的配置细节,以及HDFS和MapReduce的端口配置、集群目录配置和其他重要配置项。
2722

被折叠的 条评论
为什么被折叠?



