Hadoop
1.下载安装包,不赘述了。我解压路径为:E:\soft\hadoop-2.7.2
2.修改etc文件夹下的文件:
core-site.xml:
<configuration>
<!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/E:/soft/hadoop-2.7.2/workplace/tmp</value>
</property>
</configuration>
hadoop-env.cmd:
set JAVA_HOME=C:\PROGRA~1\Java\jdk1.8.0_144
我的JDK安装目录是C:\Program Files\Java\jdk1.8.0_144, 由于Program Files中间有空格,这里会报错,所以用PROGRA~1代替Program Files。如果你的jdk路径没有空格,那么就直接用你自己的路径就好。
hadoop-env.sh ,mapred-env.sh, yarn-env.sh:
export JAVA_HOME=C:\Program Files\Java\jdk1.8.0_144 这三个文件配置路径,这里可以不替换Program Files
hdfs-si

本文详细介绍了如何在Windows系统中安装和配置Hadoop 2.7.2以及Spark 2.2.3。内容包括:设置Hadoop的环境变量、配置core-site.xml、hadoop-env.cmd等文件,启动和测试Hadoop集群,以及上传文件到集群。接着讲解了Spark的下载、解压和配置环境变量,最后通过启动spark-shell验证安装成功。
最低0.47元/天 解锁文章
673

被折叠的 条评论
为什么被折叠?



