Spark单机安装

Spark支持运行在Yarn或者Mesos上,同时也提供自己的资源管理系统,即Standalone模式.为了方便本地开发,Spark提供了Local运行模式.不同的环境的开发代码是相同的,只是在提交到不同的调度系统时参数不同而已.Spark可以处理HDFS,S3以及本地的数据,使用较为方便.Spark的开发语言主流的有Scala和Python.源码就是Scala写的,所以建议用Scala开发.
我这里的环境是ubuntu:16.04,Scala的版本建议使用新的稳定版本,直接在官网下载配置环境变量就行,也可以直接使用apt-get 安装.但是版本要注意.这而大致写写过程.
1. 解压scala的安装包,配置环境变量,检测是否安装成功

tar zxvf scala.x…tar.gz
vim .bashrc
export SCALA_HOME=/…/scala
export PATH=SCALAHOME/bin:SCALA_HOME/bin:SCALAHOME/bin:PATH
source .bashrc
scala -version

如果显示了scala的版本,则安装成功.

Spark的安装

Spark的安装右源码安装和二进制包安装,也可以直接使用apt-get安装.
对于源码安装,要使用maven进行编译,当然也可以使用自带的maven,即make-distribution.sh文件进行编译安装.这里不详细解释,主要说bin包的安装
首先在官网下载spark,这里注意要与自己的hadoop版本对应,官网提示.
下载解压后配饰环境变量.

vim .bashrc
export SPARK_HOME=/…/
export PATH=SPARKHOME/bin:SPARK_HOME/bin:SPARKHOME/bin:PATH
source .bashrc

修改配置文件
cp $SPARH_HOME/conf/spark-env.sh.template  $SPARH_HOME/conf/spark-env.sh
vim  $SPARH_HOME/conf/spark-env.sh
export JAVA_HOME=...
export HADOOP_HOME=...
export SPARK_MASTER_IP=localhost	#配置master的主机名,单机就用localhost
export SPARK_WORKER_CORES=1	#worknode给spark分的核数
export SPARK_WORKER_INSTANCES=1#worknode使用spark实例数
export SPARK_WORKER_MEMORY=1G#worknode给spark的内存
export SPARK_WORKER_PORT=8888#指定spark运行是的端口

cp $SPARH_HOME/conf/slaves.template  $SPARH_HOME/conf/slaves.sh
vim  $SPARH_HOME/conf/slaves
这个文件配置worknode的主机名,一行一个,如果是单机则用localhost.
进入sbin/目录下,
./start-all.sh

jps查看是否有Master和Worker进程.如果有则启动成功.也可以访问http://MASTER_IP:8080/查看.

Spark是一个开源的大数据处理框架,可以在单机模式下进行安装和使用。以下是Spark单机模式的安装步骤: 1. 首先,确保你的机器上已经安装了Java环境。你可以通过在终端中输入`java -version`来检查Java是否已经安装。 2. 下载Spark安装包。你可以从Spark官方网站(https://spark.apache.org/downloads.html)下载最新版本的Spark3. 解压Spark安装包。将下载的Spark压缩包解压到你想要安装的目录下,例如`/opt/spark`。 4. 配置环境变量。打开终端,编辑`~/.bashrc`文件(或者`~/.bash_profile`),添加以下内容: ``` export SPARK_HOME=/opt/spark export PATH=$PATH:$SPARK_HOME/bin ``` 保存文件后,执行`source ~/.bashrc`(或者`source ~/.bash_profile`)使环境变量生效。 5. 配置Spark。进入Spark安装目录,复制一份`spark-env.sh.template`文件并重命名为`spark-env.sh`: ``` cd /opt/spark/conf cp spark-env.sh.template spark-env.sh ``` 编辑`spark-env.sh`文件,设置以下环境变量: ``` export SPARK_MASTER_HOST=localhost export SPARK_MASTER_PORT=7077 export SPARK_LOCAL_IP=localhost ``` 保存文件后,关闭编辑器。 6. 启动Spark。在终端中执行以下命令启动Spark: ``` cd /opt/spark ./sbin/start-master.sh ``` 这将启动Spark的主节点。 7. 访问Spark Web界面。打开浏览器,访问`http://localhost:8080`,你将看到Spark的Web界面,其中包含有关Spark集群的信息。 至此,你已经成功安装并启动了Spark单机模式。你可以使用Spark提供的命令行工具或编写Spark应用程序来进行数据处理和分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小源er

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值