1、安装scala
2、安装Spark
3、配置Spark
修改配置文件spark-env.sh,在解压spark下的conf文件中
将模板文件复制出来
cp spark-env.sh.template spark-env.sh
cp slave.template slave
4、配置spark和slave
配置spark-env.sh(scala_home和java_home都是其安装路径)
export SCALA_HOME=/usr/soft/scala-2.13.0
export JAVA_HOME=/usr/soft/jdk-9.0.1
SPARK_MASTER_IP=192.168.136.132(自己的主节点IP)
5、启动Spark
进到以下目录(也是spark的安装路径下的sbin)
cd /home/hadoop/spark/spark-1.6.1/sbin
start-all.sh
6、使用jps查看进程
worker
jps
7、进入电脑浏览器输入主机名:8080可以查看spark的详细详细信息
本文详细介绍如何从零开始搭建Spark集群,包括Scala与Spark的安装、Spark配置文件的修改及环境变量设置、启动Spark集群的方法以及如何通过jps命令检查进程是否正常运行。
16万+

被折叠的 条评论
为什么被折叠?



