hive中partition如何使用

Hive分区表详解与使用
本文介绍了Hive中分区表的概念、语法和操作,包括单分区和多分区的创建,数据加载,查询以及分区的添加、删除。分区有助于提高查询效率,通过指定分区条件缩小数据扫描范围。

一、背景

1、在Hive Select查询中一般会扫描整个表内容,会消耗很多时间做没必要的工作。有时候只需要扫描表中关心的一部分数据,因此建表时引入了partition概念。

2、分区表指的是在创建表时指定的partition的分区空间。

3、如果需要创建有分区的表,需要在create表的时候调用可选参数partitioned by,详见表创建的语法结构。

二、技术细节

1、一个表可以拥有一个或者多个分区,每个分区以文件夹的形式单独存在表文件夹的目录下。

2、表和列名不区分大小写。

3、分区是以字段的形式在表结构中存在,通过describe table命令可以查看到字段存在,但是该字段不存放实际的数据内容,仅仅是分区的表示。

4、建表的语法(建分区可参见PARTITIONED BY参数):

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name [(col_name data_type [COMMENT col_comment], …)] [COMMENT table_comment] [PARTITIONED BY (col_name data_type [COMMENT col_comment], …)] [CLUSTERED BY (col_name, col_name, …) [SORTED BY (col_name [ASC|DESC], …)] INTO num_buckets BUCKETS] [ROW FORMAT row_format] [STORED AS file_format] [LOCATION hdfs_path]

5、分区建表分为2种,一种是单分区,也就是说在表文件夹目录下只有一级文件夹目录。另外一种是多分区,表文件夹下出现多文件夹嵌套模式。

a、单分区建表语句:create table day_table (id int, content string) partitioned by (dt string);单分区表,按天分区,在表结构中存在id,content,dt三列。

b、双分区建表语句:create table day_hour_table (id int, content string) partitioned by (dt string, hour string);双分区表,按天和小时分区,在表结构中新增加了dt和hour两列。

表文件夹目录示意图(多分区表):

6、添加分区表语法(表已创建,在此基础上添加分区):

ALTER TABLE table_name ADD partition_spec [ LOCATION ‘location1’ ] partition_spec [ LOCATION ‘location2’ ] … partition_spec: : PARTITION (partition_col = partition_col_value, partition_col = partiton_col_value, …)

用户可以用 ALTER TABLE ADD PARTITION 来向一个表中增加分区。当分区名是字符串时加引号。例:

ALTER TABLE day_table ADD PARTITION (dt=‘2008-08-08’, hour=‘08’) location ‘/path/pv1.txt’ PARTITION (dt=‘2008-08-08’, hour=‘09’) location ‘/path/pv2.txt’;

7、删除分区语法:

ALTER TABLE table_name DROP partition_spec, partition_spec,…

用户可以用 ALTER TABLE DROP PARTITION 来删除分区。分区的元数据和数据将被一并删除。例:

ALTER TABLE day_hour_table DROP PARTITION (dt=‘2008-08-08’, hour=‘09’);

8、数据加载进分区表中语法:

LOAD DATA [LOCAL] INPATH ‘filepath’ [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 …)]

例:

LOAD DATA INPATH ‘/user/pv.txt’ INTO TABLE day_hour_table PARTITION(dt=‘2008-08- 08’, hour=‘08’); LOAD DATA local INPATH ‘/user/hua/*’ INTO TABLE day_hour partition(dt=‘2010-07- 07’);

当数据被加载至表中时,不会对数据进行任何转换。Load操作只是将数据复制至Hive表对应的位置。数据加载时在表下自动创建一个目录,文件存放在该分区下。

9、基于分区的查询的语句:

SELECT day_table.* FROM day_table WHERE day_table.dt>= ‘2008-08-08’;

10、查看分区语句:

hive> show partitions day_hour_table; OK dt=2008-08-08/hour=08 dt=2008-08-08/hour=09 dt=2008-08-09/hour=09

三、总结

1、在 Hive 中,表中的一个 Partition 对应于表下的一个目录,所有的 Partition 的数据都存储在最字集的目录中。

2、总的说来partition就是辅助查询,缩小查询范围,加快数据的检索速度和对数据按照一定的规格和条件进行管理。

<think> 嗯,用户这次想了解Hivepartition by和distribute by的区别。这个问题确实容易混淆,尤其在看到引用内容中提到“两者效果一样但不能混用”时更让人困惑。让我结合引用内容和Hive底层机制来理清楚。 用户可能正在编写Hive查询时遇到了性能问题,或者看到别人脚本里同时出现这两种写法感到疑惑。考虑到之前讨论过元数据管理,ta应该有一定Hive基础,但需要更清晰的操作语义对比。 从引用[3]和[4]看,最核心的区别在于应用场景: - partition by是窗口函数的专属搭档,它只影响窗口计算范围不改变结果集行数 - distribute by是MapReduce阶段的数据分发指令,会物理改变数据分布路径 引用[5]的案例特别有说服力:当使用distribute by deptno时,数据会按部门编号哈希到不同reducer,每个部门的数据物理分散到不同文件。而窗口函数中的partition by deptno order by salary时,所有数据仍在同一个文件,只是计算窗口按部门划分。 这里有个技术细节值得展开:distribute by常配合sort by使用,这样每个reducer内部有序但全局无序;而窗口函数中partition by必须配order by才能实现组内排序。引用[2]提到这和group by的相似性——group by在分发后还会聚合,distribute by则只负责分发。 用户可能没意识到的重要区别是执行阶段: - distribute by发生在Map到Reduce的shuffle阶段 - partition by发生在Reduce阶段的数据处理环节 最后那个“不要混用”的警告(引用[4])很关键:比如在distribute by后面错误使用partition by,会导致语义混乱。应该建议用户始终遵循标准组合:分析函数用partition by+order by,数据分发用distribute by+sort by。 要不要补充说明cluster by呢?引用[2][5]提到它是distribute by+sort by的简写,适合用户需要按相同字段分区排序的场景。 </think>在 Hive 中,`PARTITION BY` 和 `DISTRIBUTE BY` 是两种完全不同的数据操作机制,核心区别在于 **使用场景** 和 **数据物理分布方式**。以下是详细对比: --- ### **一、本质区别** | **特性** | **PARTITION BY** | **DISTRIBUTE BY** | |------------------|---------------------------------------------|--------------------------------------------| | **应用场景** | **窗口函数**(如 `ROW_NUMBER()`, `SUM()`) | **SELECT 查询**(数据写入或计算阶段) | | **作用层级** | 逻辑分组(**不改变数据物理分布**) | 物理分区(**改变数据在 Reduce 的分布**) | | **是否改变行数** | ❌ 仅定义计算窗口,行数不变 | ✅ 数据被分发到不同 Reduce,可能改变文件数 | | **典型搭档** | 必须配合 `ORDER BY`(窗口内排序) | 常配合 `SORT BY`(Reduce 内排序) | --- ### **二、使用场景详解** #### **1. `PARTITION BY`(窗口函数专用)** - **功能**:在窗口函数中定义 **逻辑分组**,计算在每个分组内独立进行 - **示例**:按部门分组计算工资排名(引用[1][4]) ```sql SELECT emp_id, dept_id, salary, -- 按部门分组,组内按工资排序 ROW_NUMBER() OVER (PARTITION BY dept_id ORDER BY salary DESC) AS rank FROM employee; ``` - ✅ **结果特点**:所有数据仍在同一文件,仅增加排名列 - ⚠️ **限制**:只能用于窗口函数(引用[3][4]) #### **2. `DISTRIBUTE BY`(数据分发控制)** - **功能**:控制数据在 MapReduce 中 **按指定列分发到不同 Reduce** - **示例**:按部门将数据分发到不同文件(引用[2][5]) ```sql INSERT OVERWRITE LOCAL DIRECTORY '/output' SELECT * FROM employee DISTRIBUTE BY dept_id -- 按部门分发到不同 Reduce SORT BY salary DESC; -- 每个 Reduce 内按工资降序 ``` - ✅ **结果特点**:生成多个文件(如 `dept_id=1`、`dept_id=2` 各存一个文件) - ⚠️ **与 GROUP BY 区别**:只分发不聚合(引用[2]) --- ### **三、底层原理对比** | **维度** | PARTITION BY | DISTRIBUTE BY | |----------------|---------------------------------------|------------------------------------| | **执行阶段** | Reduce 阶段(数据处理时) | Shuffle 阶段(Map→Reduce 传输时) | | **数据分布** | 逻辑分组,数据仍在同一 Reduce 进程 | 物理分区,数据被哈希到不同 Reduce | | **文件输出** | 单个文件 | 多个文件(每个 Reduce 输出一个) | | **性能影响** | 低(仅内存计算) | 高(涉及网络传输和文件拆分) | > **关键结论**(引用[4]): > - `PARTITION BY` + `ORDER BY` = 窗口函数内分组排序 > - `DISTRIBUTE BY` + `SORT BY` = 数据物理分发与排序 > **二者不可混用!** 例如窗口函数中写 `DISTRIBUTE BY` 会报错。 --- ### **四、典型混淆场景解析** #### **场景 1:试图在窗口函数中使用 `DISTRIBUTE BY`** ```sql -- 错误写法! SELECT ROW_NUMBER() OVER (DISTRIBUTE BY dept_id SORT BY salary) FROM employee; ``` **报错原因**:窗口函数只支持 `PARTITION BY` + `ORDER BY`(引用[3][4]) #### **场景 2:在 SELECT 中误用 `PARTITION BY`** ```sql -- 错误写法! SELECT * FROM employee PARTITION BY dept_id; ``` **正确替代**:应改用 `DISTRIBUTE BY` 或 `CLUSTER BY`(引用[5]): ```sql -- 按部门分发数据 SELECT * FROM employee DISTRIBUTE BY dept_id; -- 按部门分发且组内排序(等价 DISTRIBUTE BY + SORT BY) SELECT * FROM employee CLUSTER BY dept_id; ``` --- ### **五、总结对比表** | **维度** | PARTITION BY | DISTRIBUTE BY | |------------------|-------------------------------|------------------------------| | **适用语句** | 窗口函数 | SELECT 查询 | | **数据物理分布** | 不改变 | 改变(按哈希分发) | | **输出文件数** | 1 个 | 多个(= Reduce 数) | | **是否需排序** | 必须配 ORDER BY | 可选配 SORT BY | | **替代写法** | 无 | CLUSTER BY = DISTRIBUTE BY + SORT BY | > 💡 **最佳实践**: > - **分析计算**(如排名、累计求和) → `PARTITION BY` > - **数据导出**(需按列分区存储)→ `DISTRIBUTE BY` + `SORT BY` > - **简化写法** → `CLUSTER BY`(引用[2][5]) ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值