有了Spark以后,我们可以在Spark-shell的界面以及 Spark-sql的界面进行我们Hive的读写,我们只需要将Hive的hive-site.xml导入到spark/conf下即可,因为Hive的元数据是储存在MySQL上的,所以我们只需要确保MySQL关联的HIVE数据库是可通的即可,无需安装Hive来进行校验。
hive-site.xml需要的内容
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
</property>
</configuration>
启动spark-shell是,记得要--jars导入mysql驱动包
启动后只需spark.sql("相关的Hive执行语句").show即可操作Hive了