spark-sql 和 pyspark的配置

1、

1**执行spark-sql 报错 :sparksql启动报错The specified datastore driver ("com.mysql.jdbc.Driver") was not found in the CLASSPATH**
解决方案:spark无法使用mysql的驱动,访问hive的元数据(mysql数据库),所以需要想办法让spark能引用已存在的访问mysql的驱动。
针对已经配置完毕的hive,一般的访问mysql的驱动放在hive的lib库之下,比如:/opt/hive/hive2.3/lib/mysql-connector-java-5.1.48.jar
第一步:将$HIVE_HOME/conf/hive-site.xml拷贝到$SPARK_HOME/conf下
第二步:配置$SPARK_HOME/conf里面的spark-defaults.conf 两个参数,使spark可以访问指定的mysql驱动
	spark.executor.extraClassPath /opt/hive/hive2.3/lib/mysql-connector-java-5.1.48.jar
	spark.driver.extraClassPath /opt/hive/hive2.3/lib/mysql-connector-java-5.1.48.jar
	当然,将mysql驱动包复制到$SPARK_HOME/lib下也是可行的。


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值