一、core-site.xml配置如下:
<configuration>
<property>
<name>fs.default.name</name>
<!-- 请使用IP,不要使用localhost -->
<value>hdfs://192.168.56.101:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<!-- 使用你的自己定义路径 -->
<value>/home/user/hadoop</value>
</property>
</configuration>
二、hdfs-site.xml 配置如下:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
三、mapred-site.xml 配置如下:
<configuration> <property> <name>mapred.job.tracker</name> <!-- 请使用IP --> <value>192.168.56.101:9001</value> </property> <property> <name>hadoop.job.ugi</name> <!-- 登录ubuntu的用户名和密码 --> <value>tester,123456</value> <description>hadoop user access password</description> </property> </configuration>
四、hadoop-env.sh 中加入以下配置:
export JAVA_HOME=/usr/Java/jdk1.6
export HADOOP_HOME_WARN_SUPPRESS=TRUN

本文详细介绍了Hadoop集群配置的三个关键文件:core-site.xml、hdfs-site.xml和mapred-site.xml,以及hadoop-env.sh中必要的环境变量设置。通过配置FS默认名称、HDFS副本数、MapReduce作业跟踪器和用户权限,实现Hadoop集群的基本搭建。
876

被折叠的 条评论
为什么被折叠?



