一、下载hadoop
- 下载地址
http://hadoop.apache.org 解压
关于winutils的下载
还需要下载winutils.exe,需要对应的版本.地址https://github.com/steveloughran/winutils,下载之后直接解压,将bin目录里的内容直接覆盖到hadoop的bin 。将其中的hadoop.dll在c:/windows/System32下也放一份。
二、配置hadoop
- 首先配置环境变量
1.新建HADOOP_HOME变量 2.在path中添加 %HADOOP_HOME%\bin, 配置hadoop文件
所有的配置文件都在D:\hadoop\etc\hadoop的目录下,使用记事本打开.文件1:
D:\hadoop\etc\hadoop\hadoop-env.cmd
jdk路径不要有空格set JAVA_HOME=D:\Java\jdk1.8
文件2:
D:\hadoop\etc\hadoop\core-site.xml
<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration>
文件3:
D:\hadoop\etc\hadoop\hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/hadoop/data/dfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/hadoop/data/dfs/datanode</value> </property> </configuration>
文件4:
D:\hadoop\etc\hadoop\mapred-site.xml
mapred-site.xml是复制mapred-site.xml.template,去掉template<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
- 文件5:
D:\hadoop\etc\hadoop\yarn-site.xml
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration>
三、启动hadoop
使用管理员运行cmd
hadoop namenode -format //格式化hdfs
cd xx/hadoop/sbin //进入到sbin目录下
start-dfs.cmd //先启动dfs
start-yarn.cmd //再启动yarn
//或者
//start-all.cmd //相当于以上的两条命令
启动完成,在地址栏输入http://localhost:8088
在地址栏输入http://localhost:50070
正常访问,安装完成 。
详细配置参考 : http://blog.youkuaiyun.com/xuechongyang/article/details/8691518
配置好环境变量后,打开cmd 输入hadoop version 的时候出现以下错误:
Error: JAVA_HOME is incorrectly set.
Please update F:\hadoop\conf\hadoop-env.cmd
1.用路径替代符
C:\PROGRA~1\Java\jdk1.8.0_91
PROGRA~1 ===== C:\Program Files 目录的dos文件名模式下的缩写
长于8个字符的文件名和文件夹名,都被简化成前面6个有效字符,后面~1,有重名的就 ~2,~3,