Spark2.1.2编译支持cdh5.10.2

本文详细介绍如何在Centos6.5 64位环境下,使用JDK 1.8.0.65、Scala 2.12.4和Hadoop 2.6.0-cdh5.10.2,进行Spark 2.1.2源码的下载、配置、编译和打包。包括环境准备、Maven配置、执行权限设置、源码解压、pom.xml修改、Hadoop服务关闭及最终的编译命令。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

环境配置
操作系统Centos6.5
位数64位
JDK1.8.0.65
Scala2.12.4
Hadoop2.6.0-cdh5.10.2
Spark2.1.2

第一步:从Spark官网下载Spark源码

wget http://mirrors.hust.edu.cn/apache/spark/spark-2.1.2/spark-2.1.2.tgz

第二步:JDK、Scala、Hadoop安装配置好

第三步:配置Maven

第四步:增大Maven使用的内存

export MAVEN_OPTS="-Xmx2g -XX:ReservedCodeCacheSize=512m"

第五步:添加执行权限并解压

# 添加执行权限
chmod u+x spark-2.1.2.tgz

# 解压
tar -zxf spark-2.1.2.tgz -C .

第六步:

vim dev/make-distribution.sh

#  修改以下内容
VERSION=2.1.2
SCALA_VERSION=2.12.4
SPARK_HADOOP_VERSION=2.6.0-cdh5.10.2
SPARK_HIVE=1

第七步:修改pom.xml添加国内源和Cloudera源

cd ${SPARK_HOME}

vim pom.xml

# 在repositories标签下添加以下阿里云源和Cloudera源

第八步:关闭所有Hadoop服务

第九步:执行编译命令

cd dev

./make-distribution.sh --name custom-spark --tgz -Phadoop-2.6 -Dhadoop.version=2.6.0-cdh5.10.2 -Phive -Phive-thriftserver -Pyarn

注意一定要在make-distribution.sh所在所在的目录执行,不能在Spark的根目录执行
编译成功的界面:
Spark2.1.2编译支持cdh5.10.2_1

Spark2.1.2编译支持cdh5.10.2_2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值