SparkSQL-liunx系统Spark连接Hive

文章详细描述了如何配置Spark连接到Hive的步骤,包括复制必要的jar包到Spark的jar目录,将hive-site.xml从Hive的conf目录复制到Spark的conf目录,修改配置文件以适应MySQL元数据存储,并启动Hadoop和Hive服务进行测试。最后,通过SparkShell验证连接并查询Hive的表。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

先来到spark312的jar包存放目录中:

复制jar包到该目录:

来到conf目录:

 把hive312/conf中的hive-site.xml复制到spark312/conf目录下:

 修改hive-site.xml文件:下面是里面的所有配置

配置完成,开始测试:

先启动hadoop:

启动hive的RunJar服务:

jps查看启动的服务:

登录hive:

查看默认库default以及表的名字:

 开启spark-shell:


spark连接hive我们需要六个关键的jar包,以及将hive的配置文件hive-site.xml拷贝到spark的conf目录下。如果你hive配置没问题的话,这些jar都在hive的目录中。

先来到spark312的jar包存放目录中:

[root@gree2 /]# cd opt/soft/spark312/jars/

复制jar包到该目录:

[root@gree2 jars]# cp /opt/soft/hive312/lib/hive-beeline-3.1.2.jar ./
[root@gree2 jars]# cp /opt/soft/hive312/lib/hive-cli-3.1.2.jar ./
[root@gree2 jars]# cp /opt/soft/hive312/lib/hive-exec-3.1.2.jar ./
[root@gree2 jars]# cp /opt/soft/hive312/lib/hive-jdbc-3.1.2.jar ./
[root@gree2 jars]# cp /opt/soft/hive312/lib/hive-metastore-3.1.2.jar ./
[root@gree2 jars]# cp /opt/soft/hive312/lib/mysql-connector-java-8.0.29.jar ./

来到conf目录:

[root@gree2 /]# cd opt/soft/spark312/conf/

 把hive312/conf中的hive-site.xml复制到spark312/conf目录下:

[root@gree2 conf]# cp /opt/soft/hive312/conf/hive-site.xml ./

 修改hive-site.xml文件:下面是里面的所有配置

<configuration>
  <property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/opt/soft/hive312/warehouse</value>
  </property>
  <prop

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值