windows部署spark:The root scratch dir: /tmp/hive on HDFS should be writable.

1.安装jdk

  • 配置环境变量

    JAVA_HOME:D:\java\jdk1.8.0_31
    PATH:%JAVA_HOME%\bin;%JAVA_HOME%\jre\bin
    CLASSPATH:.;%JAVA_HOME%\lib;%JAVA_HOME%\lib\tools.jar
    
  • 注:jdk尽量安装到自定义目录,默认的Program File有空格,可能会导致后续运行某些命令报错

2.安装hadoop

  • 下载:http://archive.apache.org/dist/hadoop/core/

  • 环境变量配置

    HADOOP_HOME=D:\java\hadoop-2.8.4
    PATH:%HADOOP_HOME%\bin
    
  • 详细参考:https://blog.youkuaiyun.com/luanpeng825485697/article/details/79420532

3.安装Scala

  • 下载地址:http://www.scala-lang.org/download/all.html
    这里使用的是2.11.8版本的
  • 配置环境变量
    SCALA_HOME:D:\java\scala-2.11.8
    PATH:%SCALA_HOME%\bin
    
  • 验证是否安装成功:
    在cmd窗口中,输入 scala,回车,如下图
    在这里插入图片描述

4.安装spark

  • 地址:http://spark.apache.org/downloads.html
  • 配置环境变量
    SPARK_HOME:D:\java\spark-2.1.0-bin-hadoop2.7
    Path:%SPARK_HOME%\bin
    
  • cmd 运行spark-shell
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值