序言
本Demo是基于SpringBoot 创建Hive 任务并提交到 MapReduce On Yarn 上进行计算.
那SpringBoot连接Hive的整体思路其实很简单就是通过JDBC.针对Hive的任务并提交到Yarn上就是通过SQL(当然实际的任务是MapReduce,那我们只是通过SQL的形式交由程序去自动创建cuiyaonan2000@163.com) 前提是要启动Hive Server
如下所示:

参考信息:
整合方案
正如官网所说的,我们直接以JDBC的形式进行整合就行了,就像你使用Mybatis整合MySql一样.
如此我们就可以了解到,在我们自己的工程中可以同时整合Mysql,Oracle,Hive进行多数据源的操作.整合的要求参考不同JPA的技术实现,你可以把Hive看成就是Mysql.只是使用了不同的驱动.
核心配置^_^
spring:
jmx:
default-domain: gateway
output:
ansi:
enabled: DETECT
datasource:
druid:
url: jdbc:hive2://172.17.15.2:10000/default
driver-class-name: org.apache.hive.jdbc.HiveDriver
username: cuiyaonan
password: cuiyaonan
initial-size: 5
max-active: 20
min-idle: 5
max-wait: 60000
validationQuery: SELECT 1
任务提交
在显示作业中有中2中方式提交任务(如下2个命令的参数设置是共用的).
- start-thriftserver.sh --即传统的jdbc模式直接连接该服务提交任务
- spark-submit 提交jar包的形式
本文介绍如何使用SpringBoot结合JDBC连接Hive,并通过HiveServer提交任务到MapReduceOnYarn进行计算。文中详细解释了核心配置及任务提交的具体步骤。
3989

被折叠的 条评论
为什么被折叠?



