版本
hive 3.1.2
spark 3.3.3
配置
首先,自己配置好spark on hive,很简单,网上配置很多。
把MySQLjar包放进spark的jars。
测试
启动spark-sql(这个如果我没记错的话,是在spark的bin目录里)
创建表,插入字段
启动hive(bin/hive),查询是否有spark-sql创建的表。
有的话,恭喜你,spark on hive 已经配置好了。
后面这是使用客户端工具DataGrip连接到Spark,写sql 的配置
DG不能直接连接spark,如果想要连接的话,要使用spark的Spark ThriftServer 去代替hiveserver2的服务。
1、去etc/hosts,下新增,192.168.177.101 node01.itcast.cn (也可以不新增,到时候改下启动命令就行)。(在我配置完后我也觉得这步挺多余,忽略掉吧,如果后面不行你再回来配置)
2、启动Spark ThriftServer
在$SPARK_HOME/sbin
//这个是配置了1、的启动方式
cd /opt/****/spark-local/sbin
./start-thriftserver.sh \
--hiveconf hive.server2.thrift.port=1000