环境准备
-
服务器集群
我用的CentOS-6.6版本的4个虚拟机,主机名为hadoop01、hadoop02、hadoop03、hadoop04,另外我会使用hadoop用户搭建集群(生产环境中root用户不是可以任意使用的) -
spark安装包
下载地址:https://mirrors.aliyun.com/apache/spark/
我用的spark-2.2.0-bin-hadoop2.7.tgz
要根据自己机器中的hadoop版本选择对应的spark版本、
1. 集群规划

1、安装Scala
下载路径:http://www.scala-lang.org/download/
拷贝文件到对应主机
(1)cp or SSH Secure File Transfer Client
(2)解压缩 tar -zvxf scala-2.12.2.tgz
(3)mv *** /opt/scala
(4)配置环境变量 /etc/profile
export SCALA_HOME=/home/hadoop3/scala-2.11.7
export PA

本文档详细介绍了如何在4台CentOS-6.6虚拟机上搭建Spark完全分布式集群,包括环境准备、Scala安装、集群规划、配置文件修改以及启动步骤。重点讲解了为避免与Hadoop文件冲突而对start-all.sh和stop-all.sh文件的重命名,并强调了在启动Spark集群前需先启动Hadoop集群。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



