Hive on Spark配置总结

本文介绍了在Hive 2.0.1和Spark 1.5.0环境下配置Hive on Spark的过程。强调了Spark预构建版本通常包含Hive,需要从源码编译无Hive的Spark版本。编译时使用Scala 2.10.6,并提供了编译命令。同时,修改Hive-site.xml和Spark-default.conf的配置,并列举了配置过程中可能遇到的问题及解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

环境配置

Maven-3.3.3

JDK 7u79

Scala 2.10.6

Hive 2.0.1

Spark 1.5.0 source

Hadoop 2.6.4


Hive版本Spark版本要相匹配,因此下载Hive源代码的pom.xml中查看spark.version来确定要使用的spark版本。

Note that you must have a version of Spark which does not include the Hive jars. Meaning one which was not built with the Hive profile.

注意:Spark官网上pre-build spark-2.x都是集成Hive的,所以想要使用Hive on spark那么必须要下载源代码进行编译

推荐 hive-1.2.1 on spark-1.3.1 / hive-2.0.1 on spark-1.5.2


编译Spark

默认是使用Scala 2.10.4来编译的


export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"


mvn -Pyarn -Phadoop-2.6 -DskipTests clean package


./make-distribution.sh --name xm-spark --tgz -Phadoop-2.6 -Pyarn


若果是用Scala 2.11.x来编译

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值