spark 2.2.0 编译 及遇到的一些坑 以及解决方式

本文档详细记录了Spark 2.2.0的编译过程,包括前期准备、修改配置文件、解决依赖问题、应对内存不足的策略以及针对Scala版本的注意事项。在编译过程中,可能会遇到如Maven依赖解析错误、内存不足和Scala版本不匹配等问题,本文提供了相应的解决方案,帮助开发者顺利完成编译。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前期准备工作参考 http://blog.youkuaiyun.com/wjl7813/article/details/79157148  

spark官方文档 编译参考 http://spark.apache.org/docs/2.2.0/building-spark.html   

 tar xf spark-2.2.0
 tar xf spark-2.2.0.tgz 
 cd spark-2.2.0/dev/

修改 make-distribution.sh  文件 ,  内容如下
VERSION=2.2.0
SCALA_VERSION=2.11.11
SPARK_HADOOP_VERSION=2.6.0-cdh5.7.0
SPARK_HIVE=1

[hadoop@node1 dev]$ pwd
/home/hadoop/source/spark-2.2.0/dev
[hadoop@node1 dev]$ ./make-distribution.sh --name 2.6.0-cdh5.7.0 --tgz -Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver -Dhadoop.version=2.6.0-cdh5.7.0  

(1) 坑一 会报如下的错误

[ERROR] Failed to execute goal on project spark-launcher_2.11: Could not resolve dependencies for project org.apache.spark:spark-launcher_2.11:jar:2.2.0: Could not find artifact org.apache.hadoop:hadoop-client:jar:2.6.0-cdh5.7.0 in nexus-aliyun (http://maven.aliyun.com/nexus/content/groups/publ

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值