1.安装好jdk,版本最好1.6+,本人安装的是1.7,并且配置好环境变量JAVA_HOME。
2.安装好scala,scala版本最好选择2.10.4,配置好环境变量SCALA_HOME。本人没有安装scala,但是spark一样能运行,应该是spark本身自带scala。强烈建议自己安装scala。
3.安装好hadoop,配置好环境变量HADOOP_HOME,主要是spark需要用到hadoop的配置。
4.复制修改slaves文件,配置哪些节点是worker节点。
5.复制修改spark-env.sh和spark-defaults.conf。参考:spark配置
6.启动集群,参考:spark命令
7测试集群是否安装成功,参考:测试spark集群是否安装成功:网页监控页面和运行spark shell。
官网的standalone 模式安装配置阅读很简单,直接参考官网的。