安装版本:spark-2.1.1-bin-hadoop2.7.tgz
准备操作:创建3台虚拟机,构建基础网络、免密钥、时间同步、HOST配置。并且安装jdk:1.8
Master:node111
Worker:node112 、node113
一、解压
tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz
以下操作在node111上完成
1)slaves配置文件
cp slaves.template slaves
进入slaves,默认为localhost,这个是伪集群。
修改成worker的host
vi slaves
删掉localhost
追加
node112
node113
2)spark-env.sh
改名
mv spark-env.sh.template spark-env.sh
修改
vi spark-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_131
export SPARK_MASTER_HOST=node111
export SPARK_MASTER_PORT=7077
expo

本文介绍了如何搭建Spark 2.1.1集群,包括在3台虚拟机上的基础网络配置、JDK安装、Master和Worker节点设置,以及环境变量配置。详细步骤包括在Master节点解压Spark,配置slaves文件,修改worker的spark-env.sh,以及可选的环境变量配置。监控页面可通过Spark的REST URL获取集群信息。
最低0.47元/天 解锁文章
2323

被折叠的 条评论
为什么被折叠?



