在ubuntu上搭建spark (单机环境)

本文详细介绍了如何在Ubuntu 16.04上部署Spark 2.3.1,并配置必要的Java和Scala环境。通过步骤化的指导,包括安装JDK、Scala及下载Spark等操作,帮助读者快速搭建Spark集群并进行基本测试。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在ubuntu上搭建spark,记录一下

 

环境:ubuntu 16.04

spark-2.3.1-bin-hadoop2.7.tgz

http://spark.apache.org/docs/latest/quick-start.html

 

使用已有的hadoop用户登录

1.安装JDK,配置Java环境;

2.安装Scala

注意Scala和Spark的版本对应关系

sudo apt install scala

添加如下内容到~/.bashrc中

export SCALA_HOME=/usr/share/scala-2.11
export PATH=$PATH:${SCALA_HOME}/bin


生效

source ~/.bashrc

3.下载spark

wget http://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.3.1/spark-2.3.1-bin-hadoop2.7.tgz

tar zxvf spark-2.3.1-bin-hadoop2.7.tgz

sudo mkdir /usr/local/spark

mv spark-2.3.1-bin-hadoop2.7/* /usr/local/spark

为hadoop用户赋予spark目录权限
sudo chown -hR hadoop /usr/local/spark

4.运行测试

使用自带的Python Shell测试:

cd /usr/local/spark/bin
./pyspark

lines = sc.textFile("/usr/local/spark/README.md")

lines.count()   字数统计

lines.first()

 

使用自带的Spark Shell测试:

./bin/spark-shell

 

查看当前节点运行情况

cd sbin
./start-all.sh
在浏览器中输入http://localhost:8080

 

参考:

http://www.powerxing.com/spark-quick-start-guide/

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值