Hive代码组织及架构简单介绍

hive三个主要组件

Serialzers/Deserialzers(trunk/serde)     此组件允许用户自己开发自定义序列化、反序列化文件解析器,hive自身也内置了一些序列化解析类。
MetaStore(trunk/metastore)     此组件是hive的元数据服务器,用来存放数据仓库中所有表和分区的信息,hive元数据建表sql、升级sql脚本都存放在此目录下。
Query Processor(trunk/ql)     此组件用于解析sql生成map/reduce作业,并按照先后顺序执行他们(hive核心包,熟读此包,可了解hive执行流程核心)。

其他组件

Command Line Interface(trunk/cli)     此组件用于处理命令行提交作业。
Hive Server(trunk/service)     此组件所有对外api接口的服务端(通过thrift实现),可用于其他客户端与hive交互,比如jdbc。   
Common(trunk/common)     hive基础代码库,hive各个组件信息的传递也是有此包HiveConf类来管理。
Ant Utilities(trunk/ant)     此组件包含一些ant任务需要的基础代码
Scripts(trunk/bin)     此组件包涵hive里的所有脚本,包括hive CLI的脚本。

hive辅助组件

trunk/conf     此目录包涵hive配置文件hive-default.xml、hive-site.xml
trunk/data     hive测试所用数据
trunk/ivy     管理hive跟hadoop各个版本之间的依赖
trunk/lib     hive运行期间依赖的jar
trunk/testlibs     用于构建单元测试

 Query Processor(hive核心,执行引擎)

Parse and SemanticAnalysis(ql/parse)     此组件主要用于编译sql->Abstract Syntax Trees抽象语法树->QB->Logical Plan->Physical Plan(hive 0.11多表join count(distinct)就在此步骤出错)

Optimizer (ql/optimizer)     基于规则,优化hive作业(not 基于cost),ColumnPruner:列裁剪,Predicate PushDown:谓词下推:将过滤操作推至TableScanOperator之后

Plan Components(ql/plan)     封装内置信息,用于compiler (Parser, SemanticAnalysis and Optimizer) 之间信息传递

MetaData Layer (ql/metadata) 连接hive元数据仓库,获得hive表、分区、列详细信息,用于编译sql语句

Map/Reduce Execution Engine (ql/exec)     执行提交的map/reduce作业

Hadoop Record Readers     hive提交hadoop作业时,文件输入输出工具

Hive Function Framework (ql/udf)     看名字就知道,hive内置udf

Compiler流程

hive编译过程执行流程图

  1. parse,语义分析, 通过antlr解析生成抽象语法树 Driver.compile()
  2. sa,类型检查与语义分析 SemanticAnalyzer.doPhase1Ctx()  。。。列名是否存在
  3. lpg,logic plan generator,查询块到逻辑操作数,SemanticAnalyzer.genPlan()。。。什么cube、rollup操作树都在这一步完工
  4. lpo,logic plan optimizer,逻辑计划优化,SemanticAnalyzer.optimizer()。。。列剪辑、谓语下推、分区剪辑等等
  5. ppg,physical plan generator,生成物理执行计划,SemanticAnalyzer.genMapRedTasks()
  6. ppo,physical plan optimizer,物理执行优化,PhysicalOptimizer.optimize()

hive多表join count(distinct)异常,是因为步骤3 lpg生成的逻辑执行计划有bug

附带hive执行流程图

Driver类是hive最重要的类,了解其run、compile、execute方法,就清楚hive的核心。 

参考文献

hive源码解析:http://blog.youkuaiyun.com/lpxuan151009/article/details/7956518

hive编译解析:http://blog.youkuaiyun.com/lalaguozhe/article/details/9339679

hive开发者指南:https://cwiki.apache.org/confluence/display/Hive/DeveloperGuide

hive svn地址:http://svn.apache.org/repos/asf/hive/

<think>好的,我现在需要回答用户关于Hive四层架构的问题。用户明确要求了解四层架构的组成功能,所以我得先回忆一下Hive架构相关知识。根据用户提供的引用,特别是引用[3]提到了Hive的基本组成,包括用户接口、元数据存储、解释器、编译器、优化器、执行器等。但用户问的是四层架构,可能需要将这些组件归纳到四层中。 首先,Hive架构通常被分为不同的层次。根据我之前的了解,Hive架构可以分为用户接口层、驱动层(Driver)、元数据层(Metastore)执行层。但需要确认是否四层结构可能有不同的划分方式。比如,有的资料可能把驱动层再细分,或者把存储层单独列出来。不过结合用户提供的引用,引用[3]提到了用户接口、元数据存储、解释器、编译器、优化器等,这可能对应不同的层次。 用户接口层应该包括CLI、JDBC/ODBC、WebGUI,这些属于用户直接交互的部分。驱动层可能负责处理HQL查询的整个流程,包括解释、编译、优化执行。元数据层则是存储表结构等信息的地方,通常使用关系型数据库如MySQL。执行层可能涉及与Hadoop的交互,比如生成MapReduce任务,由Hadoop集群执行。 需要确认四层的具体名称组成。比如,是否将驱动层拆分为更细的组件,或者是否包含资源管理层?根据引用[3],驱动层包括解释器、编译器、优化器、执行器,这可能属于驱动层的一部分。而执行层可能是指将任务提交到Hadoop集群,如MapReduce或Spark。 所以可能的四层架构是: 1. 用户接口层 2. 驱动层(处理HQL到MR任务的转换) 3. 元数据存储层 4. 执行引擎层(与Hadoop交互) 或者可能有另一种划分,比如: 1. 用户接口层 2. 元数据管理层 3. 查询处理层(驱动层) 4. 执行引擎层 需要根据引用内容来调整。例如,引用[3]提到用户接口、元数据存储、解释器等组件。元数据存储是单独的一层,用户接口是一层,驱动层(解释器、编译器、优化器、执行器)作为处理层,执行层则是调用MapReduce的部分。这可能构成四层:用户接口层、元数据层、处理层(驱动层)、执行层。 不过,另一种可能的划分是将驱动层作为处理层的一部分,而执行引擎属于Hadoop本身,因此Hive架构可能不包括执行引擎作为单独一层,而是驱动层负责生成执行计划,然后由Hadoop执行。所以四层可能是用户接口层、元数据层、驱动层、存储层(数据存储在HDFS)? 不过用户的问题明确是四层架构,需要确保正确性。可能需要查阅标准资料,但根据提供的引用,引用[3]提到Hive的基本组成包括用户接口、元数据存储、解释器、编译器、优化器、执行器。这些可能被组织成四层: 1. 用户接口层:提供访问方式,如CLI、JDBC等。 2. 元数据管理层(Metastore):存储元数据。 3. 驱动层(Driver):负责HQL的解析、编译、优化执行计划的生成。 4. 执行引擎层:将执行计划转换为MapReduce/Tez/Spark任务,并提交到Hadoop集群执行。 这样的话,四层架构就明确了。需要确认每个层的功能: - 用户接口层:用户交互。 - 元数据管理层:存储结构信息。 - 驱动层:处理查询的整个流程。 - 执行引擎层:与底层计算框架交互。 另外,引用[4]提到生成的文件可以让TotalOrderPartitioner分发数据,这可能属于执行引擎层的优化部分。引用[3]中的解释器、编译器、优化器等属于驱动层。元数据存储层使用关系数据库如MySQL。 所以综合这些信息,Hive的四层架构应该是: 1. 用户接口层 2. 元数据管理层(Metastore) 3. 查询处理层(驱动层) 4. 执行引擎层 需要详细描述每一层的功能,并确保引用正确的引用来源。例如,元数据管理层可以参考引用[3],驱动层中的组件如解释器、编译器也来自引用[3]。执行引擎层可能涉及将任务提交到MapReduce,如引用[1]中提到的Hive将SQL转为MapReduce代码。 现在组织答案的结构,分四层,每层详细说明功能,并适当添加引用标注。最后生成相关问题。</think>### Hive四层架构详解 Hive架构体系可分为四层,各层协同工作实现SQL到分布式计算任务的转换。根据功能划分如下: --- #### 1. **用户接口层** 提供多种访问方式,包括: - **CLI**(命令行界面):通过`hive`命令直接操作 - **JDBC/ODBC**:支持Java程序或其他工具通过数据库连接方式访问 - **WebGUI**:通过浏览器界面操作(需额外配置) 此层负责接收用户提交的HQL(Hive Query Language)语句,是用户与系统交互的入口[^3]。 --- #### 2. **元数据管理层(Metastore)** 存储Hive的核心元数据,包括: - 表名、列名、分区信息 - 表属性(如是否为外部表) - 数据存储路径(如HDFS目录地址) 元数据默认存储在嵌入式Derby数据库,但生产环境通常使用**MySQL**等关系型数据库,以支持高并发访问[^3]。 --- #### 3. **查询处理层(驱动层)** 负责HQL语句的解析与优化,核心组件包括: - **解释器**:完成词法分析、语法分析,生成抽象语法树 - **编译器**:将语法树转换为逻辑执行计划 - **优化器**:对执行计划进行优化(如谓词下推、分区裁剪) - **执行器**:将优化后的逻辑计划转换为物理计划(如MapReduce任务) 此层通过`Driver`模块协调各组件,最终生成可执行的作业代码[^3][^4]。 --- #### 4. **执行引擎层** 将物理计划提交到分布式计算框架执行,支持多种引擎: - **MapReduce**:默认引擎,适合离线批处理 - **Tez**:优化DAG执行,减少中间数据落盘 - **Spark**:基于内存计算,提升迭代任务效率 执行结果通过HDFS返回,数据存储格式支持文本、Parquet、ORC等[^1][^4]。 --- ### 架构协作流程示例 1. 用户通过CLI提交`SELECT * FROM table WHERE id>100;` 2. Metastore校验表结构及存储路径 3. 驱动层生成MapReduce任务代码 4. 执行引擎调用YARN资源,启动Task节点完成计算 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值