Hive On Spark hiveserver2方式使用

本文介绍如何启动HiveServer2并使用Beeline进行连接,特别指出每个Beeline对应一个SparkContext,在SparkThriftServer中多个Beeline共享一个SparkContext的特点,并提到首次执行SQL语句可能会较慢。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 启动hiveserver2:

hiveserver2 --hiveconf hive.execution.engine=spark spark.master=yarn

使用beeline连接hiveserver2:

beeline -u jdbc:hive2://hadoop000:10000 -n spark

注意:每个beeline对应一个SparkContext,而在Spark thriftserver中,多个beeline共享一个SparkContext

可以通过YARN监控页面观察到:分别执行了两个beeline

在刚启动hive时,执行第一个sql语句会比较慢。

 

Hive on Spark 环境中,任务的提交流程涉及将 Hive 查询逻辑转换为 Spark 任务,并通过 Spark执行框架进行调度和运行。以下是 Hive on Spark 提交 Spark 任务的核心机制与关键组件: ### 任务提交流程 1. **查询解析与逻辑计划生成** Hive 首先对 SQL 查询进行解析,生成抽象语法树(AST),然后构建逻辑计划(Logical Plan)。该阶段主要由 Hive 的解析器和优化器完成。 2. **物理计划生成与任务转换** 在生成物理计划时,Hive 使用 `SparkCompiler` 将逻辑计划转换为 Spark执行的任务结构,包括 RDD 或 DAG 操作[^3]。这个过程会构建一个 `SparkWork` 对象,表示整个 Spark DAG 执行计划。 3. **任务封装与提交** Hive 中的 `SparkTask` 负责将 `SparkWork` 转换为实际的 Spark Job,并通过 `SparkJobExecHelper` 进行封装和提交。`SparkJobExecHelper` 会处理 Spark 作业的生命周期管理,包括提交、状态监控和失败重试等[^1]。 4. **异步提交与执行** 最终,Hive 使用 `foreachAsync` 方法将多个 `SparkTask` 异步提交到 Spark 集群上执行。每个 `SparkTask` 对应一个或多个 Spark Job,具体取决于查询的复杂度和数据分片情况[^3]。 ### 示例:提交 Hive 查询任务 当用户执行如下 HiveQL 查询时: ```sql SELECT * FROM sales WHERE amount > 1000; ``` Hive 会自动将该查询编译并转换为 Spark 任务,最终由 SparkContext 提交到集群中运行。整个过程中,用户无需手动干预任务的 Spark 层级配置。 ### 常见问题与注意事项 - **连接丢失问题** 如果在任务执行过程中出现 "Connection to remote Spark driver was lost" 错误,通常是由于 HiveServer 无法与 Spark Driver 保持稳定通信所致。此时需要检查网络连接、Spark 应用程序生命周期以及 HiveSession 的有效性[^4]。 - **性能调优建议** Hive on Spark 减少了磁盘 I/O,提升了执行效率,但在复杂查询中仍需合理设置 Spark 的内存参数(如 `spark.executor.memory` 和 `spark.driver.memory`)以避免 OOM 或 GC 问题[^2]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值