下载并解压
spark-2.1.0-bin-hadoop2.7
hadoop-2.7.3
scala-2.12.1
下载winutils.exe。 这里https://github.com/sdravida/hadoop2.6_Win_x64.git
复制 winutils.exe 到hadoop-2.7.3\bin,并执行 "winutils.exe chmod 777 D:\tmp\hive"
设置环境变量HADOOP_HOME, SCALA_HOME。
运行 spark-2.1.0-bin-hadoop2.7\bin>spark-shell.cmd
spark-2.1.0-bin-hadoop2.7
hadoop-2.7.3
scala-2.12.1
下载winutils.exe。 这里https://github.com/sdravida/hadoop2.6_Win_x64.git
复制 winutils.exe 到hadoop-2.7.3\bin,并执行 "winutils.exe chmod 777 D:\tmp\hive"
设置环境变量HADOOP_HOME, SCALA_HOME。
运行 spark-2.1.0-bin-hadoop2.7\bin>spark-shell.cmd
来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/10742815/viewspace-2134846/,如需转载,请注明出处,否则将追究法律责任。
转载于:http://blog.itpub.net/10742815/viewspace-2134846/