版本:
apache-hive-1.2.1-bin.tar.gz
spark-2.1.1-bin-hadoop2.7.tgz
1.问题陈述:
启动Hive的时候会说找不到spark-assembly相关的Jar包
cannot access /usr/local/spark/lib/spark-assembly-*.jar: No such file or directory
2.原因:
spark2以后,原有lib目录下的大JAR包被分散成多个小JAR包,原来的spark-assembly-*.jar已经不存在,所以hive没有办法找到这个JAR包。
3.解决办法
进入hive安装路径下的bin目录下,编辑hive
我的路径是:/usr/local/apache-hive-1.2.1-bin/bin
找到下面这行shell脚本
sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`
将其修改为:
sparkAssemblyPath=`ls ${SPARK_HOME}/jars/*.jar`
本文介绍了解决Hive启动时报错找不到spark-assembly相关Jar包的问题。由于Spark2之后,大JAR包被拆分成多个小JAR包,原有的spark-assembly-*.jar不再存在。文章提供了一个简单的修改方案,通过调整hive脚本来解决问题。
752

被折叠的 条评论
为什么被折叠?



