scala安装
本文中所有软件都以单机模式配置,提供测试学习使用
一、软件解压
cd /usr/local/soft/
- 下载压缩包
https://downloads.lightbend.com/scala/2.13.1/scala-2.13.1.tgz
- 解压
tar -zxvf scala-2.13.1.tgz
-
重命名
mv scala-2.13.1 scala
二、配置环境变量
*export SCALA_HOME=/usr/local/soft/scala*
*export PATH= P A T H : PATH: PATH:SCALA_HOME/bin*
三、验证
scala -version
Spark安装
一、解压
cd /usr/local/soft/
tar -zxvf spark-2.1.0-bin-hadoop2.7.tgz
二、添加环境变量
*export SPARK_HOME=/usr/local/soft/spark-2.1.0-bin-hadoop2.7*
*export PATH= P A T H : PATH: PATH:SPARK_HOME/bin*
三、修改启动变量文件
cd /usr/local/soft/spark-2.1.0-bin-hadoop2.7/conf/
vim spark-env.sh
*export JAVA_HOME=/usr/local/soft/jdk1.8.0_11*
*export SCALA_HOME=/usr/local/soft/scala-2.11.8*
*export SPARK_MASTER_IP=localhost*
*export SPARK_WORKER_MEMORY=1G*
四、启动Spark
cd /usr/local/soft/spark-2.1.0-bin-hadoop2.7/
sbin/start-all.sh

五、验证
jps

本文详细介绍了如何在单机模式下安装Scala和Spark。首先,通过下载并解压Scala压缩包,然后配置环境变量。接着,验证Scala安装是否成功。之后,解压Spark并同样配置环境变量,修改启动变量文件,设置Java、Scala路径及本地主机IP等。最后,启动Spark并使用jps验证其运行状态。
2194

被折叠的 条评论
为什么被折叠?



