hive架构的个人想法

Hive基于Hadoop上的HDFS和MapReduce,提供了一个类SQL语言的数据仓库方案。

Hive的设计目标

  • 解决关系型数据库的计算时间的瓶颈
  • 解决MR编程模型和接口偏“底层”的问题

Hive架构

Hive架构主要分为三个部分。

第一部分: 对外接口
  • Hive支持命令行、web界面、以及jdbc和odbc驱动
  • jdbc和odbc驱动是通过Hive提供的Thrift Service, 来和hive进行通信
  • 这些接口将外部提交的HQL, 交给了Hive的核心模块,也就是驱动器
第二部分: 驱动器

驱动器又包含:编译器、优化器,执行引擎和DAG(有向无环图)

  1. 编译器

编译器会把HQL编译成一个逻辑计划,也就是解析sql。

  1. 优化器

优化器拿到逻辑计划后,根据MapReduce任务的特点进行优化。变成一个物理计划。

比如多表join操作的时候,一个join会生成一个MR任务,但是如果key相同,优化器会自动优化为一个MR任务。
在这里插入图片描述

  1. 执行引擎和DAG

上一步生成的物理计划,会通过一个执行引擎,比如Hadoop的MR,来按照顺序执行。

在这里插入图片描述

第三部分: Metastore
  • Metastore用来存储Hive里的各种数据,包括表的名称、位置、列的名称、类型以及分区等信息。
  • Metastore,通常习惯用中心化的关系型数据库,比如Mysql进行存储
  • 驱动器里的各个模块,也需要通过metastore里面的数据,来确定解析HQL的时候,字段是否合法。以及确认最终执行计划的时候,从哪些目录读取数据。
### Hive 架构详解及组成部分 Hive 是一种建立在 Hadoop 上的数据仓库工具,用于大规模数据分析。其架构设计使得它能够高效地查询和分析存储在分布式文件系统上的大数据集[^1]。 #### 1. Hive 的核心组件 Hive架构由多个核心组件构成,这些组件共同协作完成数据的查询、处理和存储任务: - **MetaStore**: MetaStore 存储了 Hive 中所有的元数据信息,包括表定义、列属性、分区详情等。默认情况下,MetaStore 使用 Derby 数据库作为存储引擎,但在生产环境中通常建议使用 MySQL 或 PostgreSQL 来提高性能和可靠性[^5]。 - **Driver (驱动器)**: Driver 是整个 Hive 查询执行的关键部分,负责接收用户的 SQL/HQL 请求并将其转化为一系列可执行的任务。具体来说,Driver 将请求传递给编译器(Compiler),再通过优化器(Optimizer)生成最终的执行计划[^2]。 - **Compiler (编译器)**: 编译器的主要职责是对输入的 HiveQL 进行语法解析(Syntax Parsing)、语义验证(Semantic Analysis)以及逻辑计划(Logical Plan Generation)[^4]。这一阶段会确保提交的查询符合 Hive 的语法规则,并且所有涉及的对象(如表、视图)都存在且有效。 - **Optimizer (优化器)**: 经过编译后的逻辑计划会被送入 Optimizer 阶段,在这里会对查询进行各种转换操作以提升效率,比如谓词下推(Predicate Pushdown)、常量折叠(Constant Folding)等技术的应用可以减少不必要的计算开销[^3]。 - **Executor (执行器)**: Executor 接收来自 Optimizer 的物理执行计划,并实际调度 MapReduce 或 Tez 等框架来运行具体的作业实例[^4]。 - **Storage Handler (存储处理器)**: Storage Handlers 定义了如何读写不同类型的底层数据源,默认支持的是基于 HDFS 文件系统的文本格式化数据,但也允许扩展到其他 NoSQL 解决方案或者关系型数据库中去访问异构数据[^1]。 #### 2. Hive 工作原理 当用户向 Hive 提交一条查询命令时,大致经历了以下几个步骤: - 用户通过 CLI(Client Interface)或者其他接口发送查询指令; - Query Parser 对该字符串形式的查询做初步解析得到 AST(Abstract Syntax Tree); - Semantic Analyzer 执行更深层次的意义检查确认无误之后构建 Logical Operator DAG; - Physical Planner 结合 Cost Model 和 Statistics Information 创建最优路径规划即 Execution Plan; - Task Dispatcher 根据这个 plan 划分成若干子 task 分发至各个节点上并发执行直至返回结果集结束整个流程[^4]。 ```python from pyhive import hive # Connect to the local default instance of Hive conn = hive.Connection(host='localhost', port=10000, username='your_username') cursor = conn.cursor() cursor.execute('SELECT * FROM your_table LIMIT 10') for result in cursor.fetchall(): print(result) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值