
从spark升级到2.0.0之后,原有的lib的整个大JAR包已经被分散的小JAR包的替代,所以肯定找不到spark-assembly的JAR包,修改一下配置就行了
hive脚本114行开始
if [[ -n "$SPARK_HOME" ]]
then
sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`
CLASSPATH="${CLASSPATH}:${sparkAssemblyPath}"
fi
将/lib/spark-assembly-*.jar`替换成/jars/spark-*.jar`,就不会出现这样的问题
sparkAssemblyPath=`ls ${SPARK_HOME}/jars/spark-*.jar`
本文介绍从Spark旧版本升级到2.0.0后,由于lib的大JAR包被拆分为小JAR包,原有配置中找不到spark-assembly JAR包的问题解决方法。通过修改配置,将/lib/spark-assembly-*.jar替换为/jars/spark-*.jar,可以避免此类问题。
3001

被折叠的 条评论
为什么被折叠?



