hive和sparksql的端口号都是10000,所以在连接时我们要区分连接的是sparksql还是hive。
连接hive:
beeline -u jdbc:hive2://cdh1:10000/default
当出现Connected to: Apache Hive 字样时,表示连接hive成功。
连接sparksql:
在cdh2上启动spark thirft-server服务:
/opt/cloudera/parcels/CDH/lib/spark/sbin/start-thriftserver.sh
再使用beeline连接sparksql:
beeline -u jdbc:hive2://cdh2:10000/default
当出现Connected to: Spark SQL 字样时,表示连接spark sql成功。
从上可以看出,连接hive和连接sparksql的方式是一样的,端口号都是10000。当连接的是hiveserver2所在的节点(即jdbc:hive2://cdh1中的cdh1)时,连接的是hive;当连接的是spark thirft-server所在的节点时,连接的是sparksql。
为了方便连接,我们可以修改spark thrift-server的端口号,如改成10010.
连接impala:
beeline -u jdbc:hive2://cdh1:21050/default
端口号是21050.
本文介绍了如何通过Beeline客户端连接Hive与SparkSQL的方法,包括配置细节与连接验证步骤。此外,还提供了更改SparkThriftServer端口来区分两者的解决方案,并简述了连接Impala的过程。
1545

被折叠的 条评论
为什么被折叠?



