
原因:我们在安装Hive时候,是用的MySQL作为元数据服务器的,因此再启动spark-sql时候需要对应的mysql的jar包的支持。
解决方案:只需要在启动spark-sql的时候指定mysql-connector-java-5.1.26.jar位置即可。即:bin/spark-sql --driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.26.jar

解决方案:只需要在启动spark-sql的时候指定mysql-connector-java-5.1.26.jar位置即可。
777
9912
1万+

被折叠的 条评论
为什么被折叠?