Ubuntu16.04+Spark单机环境搭建

本文提供了一个详细的Spark环境搭建过程,在Ubuntu16.04上安装并配置JDK、Scala及Spark,解决了命令行输入pyspark时报错的问题。通过配置log4j.properties、spark-env.sh及slave.sh等文件,确保Spark稳定运行。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近学习spark,首先就要搭建它的运行环境了。自己看了无数教程,均无可以无错运行的。最后搭建成功真是整合了好多人的教程才成功的。整理一下,防止以后踩坑。
Windows环境下搭建无数踩坑,直接放弃。本文在Ubuntu16.04虚拟机上进行搭建。
贴一篇比较有价值的spark环境搭建教程。http://blog.youkuaiyun.com/u010171031/article/details/51849562
大家按照此教程安装jdk,scala,spark,即可。问题出在配置完以后,命令行输入pyspark报错。
我怎么解决的呢?在另一篇文章了,发现是spark有些配置文件没有配置。分别是log4j.properties,spark-env.sh,slave.sh,三个文件。
进入到spark的配置目录/usr/lib/spark/spark-1.5.1-bin-hadoop2.6/conf进行配置: 

进入配置目录

cd /usr/lib/spark/spark-1.5.1-bin-hadoop2.6/conf

*# 基于模板创建日志配置文件*
cp log4j.properties.template log4j.properties

**# 使用vim或gedit编辑文件log4j.properties
*# 修改log4j.rootCategory为WARN, console,可避免测试中输出太多信息***
log4j.rootCategory=WARN, console

*# 基于模板创建配置文件*
sudo cp spark-env.sh.template spark-env.sh

**# 使用vim或gedit编辑文件spark-env.sh
*# 添加以下内容设置spark的环境变量(按照你自己的路径来)***
export SPARK_HOME=/usr/lib/spark/spark-1.5.1-bin-hadoop2.6
export SCALA_HOME=/usr/lib/scala/scala-2.11.7

*# 基于模板创建配置文件*
sudo cp slave.sh.template slave.sh

**# 使用vim或gedit编辑文件spark-env.sh
*# 添加你的主机名(按照你自己来,用户名@主机名,@后面的是主机名)***
spark

这样就可以完美运行了。包括集群环境。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值