建议在看以下环境配置的时候先去了解一下linux的基本命令行操作。比如:vim(以下更改文件的操作都是基于vim命令)、cp、cd、su - ,还有关于linux权限问题的一些基本知识等等
1.Jave 环境配置
a)、下载jdk。 首先是要去官网上下载jdk,我这里下载的是jdk 1.8.0_25。 一般是有两种格式一个是.rpm,这种就是直接运行下载的,最后应该是在默认路径 /usr/java 这个路径下面(知道jdk的路径对之后的环境配置非常重要);还有一种文件应该是.tar.gz或者是.bin格式的,这一种文件是压缩格式的,解压之后放入相应的路径(建议还是上面这个路径)即可,同样也需要记住这个路径。(这里我的路径就是/usr/java/jdk-1.8.0_25)
注:一般的linux系统安装下来之后都会自带open-jdk,所以在安装完成之后还需要将默认的jdk设置为你刚下载的JDK才行。
b)配置java环境。编辑/etc/profile配置文件,在文件末尾加上:
# set java environment #表示的是注释
export JAVA_HOME=/usr/java/jdk1.8.0_25/
export JRE_HOME=/usr/java/jdk1.8.0_25/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
注意上面的路径一定要和自己的jdk路径对应。
C)配置完成之后可以检验一下自己的jdk是否配置成功,使用java-version查看。如果发现不是自己刚才所下载的jdk的对应版本,则是由于你没有将刚才的下载的版本设定为默认的jdk环境。解决方案如下(转):
执行代码:
- sudo update-alternatives install /usr/bin/java java /usr/lib/jvm/jdk1.7.0_05/bin/java 300
- sudo update-alternatives --install /usr/bin/javac javac /usr/lib/jvm/jdk1.7.0_05/bin/javac 300
- sudo update-alternatives --config java
- www.linuxidc.com@linux:~$ sudo update-alternatives --config java
- 有 3 个候选项可用于替换 java (提供 /usr/bin/java)。
- 选择 路径 优先级 状态
- ------------------------------------------------------------
- * 0 /usr/lib/jvm/java-6-openjdk/jre/bin/java 1061 自动模式
- 1 /usr/lib/jvm/java-6-openjdk/jre/bin/java 1061 手动模式
- 2 /usr/lib/jvm/java-6-sun/jre/bin/java 63 手动模式
- 3 /usr/lib/jvm/java-7-sun/bin/java 300 手动模式
- 要维持当前值[*]请按回车键,或者键入选择的编号:3
- update-alternatives: 使用 /usr/lib/jvm/java-7-sun/bin/java 来提供 /usr/bin/java (java),于 手动模式 中。
2.配置Hadoop
a)、安装的方式和JDK相似,同样也是要记住安装路径,我这里的路径是/usr/hadoop-1.2.1,需要注意一点的是装好之后更改权限设置
chown –R hadoop:hadoop hadoop #将文件夹"hadoop"读权限分配给Hadoop用户(Linux系统中的普通用户,我这里是Hadoop)
然后在etc/profile中配置环境:
# set hadoop path
export HADOOP_HOME=/usr/hadoop-1.2.1
export PATH=$PATH :$HADOOP_HOME/bin
最后还要加一步,在/usr/hadoop-1.2.1文件下面创建一个空的tmp文件夹,以防止后面出错
b)、更改配置。在/usr/hadoop-1.2.1/conf 文件下找到“hadoop-env.sh"、”core-site.xml“、”hdfs-site.xml“、”mapred-site.xml“这几个文件,使用vim命令进行编辑。
在hadoop-env.sh文件的末尾添加:
# set java environment
export JAVA_HOME=/usr/java/jdk1.8.0_25
然后编辑"core-site.xml"文件,如下:
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/hadoop/tmp</value>
(备注:请先在 /usr/hadoop-1.2.1 目录下建立 tmp 文件夹)
<description>A base for other temporary directories.</description>
</property>
<!-- file system properties -->
<property>
<name>fs.default.name</name>
<value>hdfs://localhhost:9000</value>
</property>
</configuration>
接着编辑”hdfs-site.xml“文件
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<configuration>
最后再编辑mapred-site.xml文件,如下:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
配置工作到这了就算是结束了。
3、启动Hadoop
a)、格式化namenode,使用:
hadoop namenode -format
命令来格式化namenode
b)、使用:
start-all.sh
来启动Hadoop
c)、验证是否配置成功。使用:
jps
命令,得到如下结果即为配置成功:

注意,上面这几个一个都不能少。
当然,这上面仅仅是最简单的Hadoop单机版的配置过程,也没有涉及到ssh的配置,如果需要配置集群Hadoop环境可以去参考这个博客,里面的内容相当的详细,对于想我们这样的初学者非常有帮助。http://www.cnblogs.com/xia520pi/archive/2012/05/16/2503949.html