【Hadoop】在Ubuntu系统下安装Spark

本文详细介绍了如何下载并安装Spark 2.4.0版本,特别强调了在已存在Hadoop环境下的无Hadoop版本安装过程。通过具体的shell命令演示了从解压到配置环境变量的每一步骤,并提供了验证安装成功的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Spark 版本:spark-2.4.0-bin-without-hadoop.tgz 

下载地址:http://spark.apache.org/downloads.html

下载的时候注意一下,需要下的是最新版本的无 hadoop 版本,因为我们已经在之前装过 hadoop 了。


 安装 Spark

sudo tar -zxf ~/Downloads/spark-2.4.0-bin-without-hadoop.tgz -C /usr/local/
cd /usr/local
sudo mv ./spark-2.4.0-bin-without-hadoop/ ./spark
sudo chown -R hadoop:hadoop ./spark  

修改 Spark 的配置文件:spark-env.sh

cd /usr/local/spark
cp ./conf/spark-env.sh.template ./conf/spark-env.sh

编辑文件 spark-env.sh ( vim ./conf/spark-env.sh ),在第一行添加 hadoop 配置信息:

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

 

保存退出就可以直接使用,同时我也配置了我的 Java 路径(可选)。

运行 Spark 自带的示例,验证 Spark 是否安装成功:

cd /usr/local/spark
bin/run-example SparkPi

行时会输出非常多的运行信息,输出结果不容易找到,可以通过 grep 命令进行过滤(命令中的 2>&1 可以将所有的信息都输出到 stdout 中,否则由于输出日志的性质,还是会输出到屏幕中):

bin/run-example SparkPi 2>&1 | grep "Pi is"

可以看到 Spark 成功安装。

 

转载于:https://www.cnblogs.com/guangluwutu/p/9971853.html

在Linux Ubuntu安装Apache Hadoop并随后安装Spark,可以分为几个步骤: 1. **更新系统**: ``` sudo apt-get update && sudo apt-get upgrade ``` 2. **安装依赖包**: - Java Development Kit (JDK):Hadoop需要Java运行环境,你可以通过`ppa:webupd8team/java`添加Ubuntu官方仓库安装: ``` sudo add-apt-repository ppa:webupd8team/java sudo apt-get install oracle-java8-installer ``` - SSH工具:为了集群间的通信,安装SSH客户端和服务器: ``` sudo apt-get install openssh-server sudo apt-get install ssh-client ``` 3. **安装Hadoop**: - 官方推荐的是Hadoop YARN版本,从Hadoop官网下载适合Ubuntu的tarball,然后解压并配置: ``` wget https://hadoop.apache.org/releases.html cd ~/ tar -xvf hadoop-x.x.x.tar.gz cd hadoop-x.x.x sbin/hadoop namenode -format start-dfs.sh start-yarn.sh ``` - 配置文件通常位于`etc/hadoop`目录下,包括核心、名称节点和资源管理器配置。 4. **安装Spark**: - Spark的稳定版本可以从官方网站下载,选择合适的Scala版本(如Scala 2.11)的二进制包,例如: ``` wget https://www.apache.org/dist/spark/spark-x.x.x/spark-x.x.x-bin-hadoop-y.y.tgz gunzip spark-x.x.x-bin-hadoop-y.y.tgz tar xvf spark-x.x.x-bin-hadoop-y.y.tgz ``` -Spark添加到环境变量`PATH`中,并配置环境变量以指向Hadoop安装位置。 5. **验证安装**: - 使用命令行工具(如`jps`检查是否有YARN守护进程和Spark应用Master等运行。 - 对于Spark Shell进行基本测试: ``` cd spark-x.x.x-bin-hadoop-y.y ./bin/spark-shell ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值