一、若要把 Spark SQL 连接到一个部署好的 Hive 上,你必须把 hive-site.xml ,hdfs-site.xml,core-site.xml复制到
Spark 的配置文件目录中($SPARK_HOME/conf)。
二、运行spark-sql的时候会报缺少mysql驱动的错误
有两种方式可以解决:
1、将mysql驱动包放在($SPARK_HOME/jars)目录中
然后spark-sql
成功启动!
2、需要指定mysql驱动器位置
spark-sql --driver-class-path /home/hadoop/apps/hive/lib/mysql-connector-java-5.1.40-bin.jar
成功启动!