Ubuntu14.04下单机版Spark的部署

本文详述了在Ubuntu 14.04 64位系统上部署Spark单机版的步骤,包括安装JDK、Scala、Spark,环境变量配置,解决遇到的问题,如Python依赖安装,以及如何测试安装结果和建立单机集群。通过执行相关命令和检查Web UI,确保Spark集群配置成功。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在写本篇博客之前,我也是查阅了许多资料,从官方文档到国内外多名网友的教程,但他们写的不是那么的具体,以至于在实际部署的时候遇到了好几个麻烦,浪费了很多时间,但这样一来二去也算是对Spark有了一个比较浅显的初步认识,因祸得福了吧。
废话不多说了,直接上干货。
本博文所使用的系统为Ubuntu 14.04 64位

安装
  • 安装JDK,这一步我在这里就不再赘述了,想必稍微有点开发经验的朋友都早已配置好了
  • 安装scala,scala采用的是函数式编程,上手难度较高,但他是官方推荐的编程语言,所以我在这里也先装上他,以备日后的学习之需。本文采用的开发语言为Python。
    下载scala-2.11.8.tgz,解压到/opt/scala-2.11.8
    下载地址:点我下载
  • 安装Spark
    下载spark-1.6.0-bin-hadoop2.6.tgz,解压到/opt/spark-1.6.0-bin-hadoop2.6
    下载地址:点我下载
    这里附上图,需要选择一些选项:
    这里写图片描述
环境变量配置
  • sudo gedit /etc/profile
    在文件末尾加上如下配置语句:

    
    # for scala environment 
    
    export SCALA_HOME=/opt/scala-2.11.8
    export PATH=${SCALA_HOME}/bin:$PATH
    
    
    
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值