Spark单机安装
目录
一.下载
wget http://bj-yzjd.ufile.cn-north-02.ucloud.cn/spark-2.0.1-bin-hadoop2.7.tgz

二.解压
![]()
三.进入安装目录

四.进入conf目录文件

五.编辑spark-env.sh文件

六.进入BIN目录启动服务

七.启动成功显示

实现步骤:
- 1)安装和配置好JDK
- 2)上传和解压Spark安装包
- 3)进入Spark安装目录下的conf目录
- 复制conf spark-env.sh.template 文件为 spark-env.sh
- 在其中修改,增加如下内容:
- SPARK_LOCAL_IP=服务器IP地址
- Spark单机模式启动
- 在bin目录下执行:sh spark-shell --master=local

714

被折叠的 条评论
为什么被折叠?



