大数据技术与应用 实验七报告 Spark安装配置
1、官网下载安装Scala:scala-2.12.8.tgz
https://www.scala-lang.org/download/
官网下载安装Spark:spark-2.4.2-bin-hadoop2.7.tgz
https://www.scala-lang.org/download/
2、传输
File→Connect SFTP→→Session
put F:\Scala\scala-2.12.8.tgz

put F:\Spark\spark-2.4.3-bin-hadoop2.7.tgz

3、解压安装:
(1)tar -zxvf scala-2.12.8.tgz -C /home/sun

tar -zxvf \spark-2.4.3-bin-hadoop2.7.tgz -C /home/sun

本文档详细介绍了如何在Linux环境中安装Scala和Spark,包括从官网下载安装包、通过SFTP传输、解压、配置环境变量、重命名、测试安装是否成功以及启动Scala和Spark的步骤。还提供了启动Spark Shell及编写简单代码的示例。
最低0.47元/天 解锁文章
2855

被折叠的 条评论
为什么被折叠?



