Hive的分区分桶和数据抽样


我们知道,hive中有分区和分桶的概念,在此篇博客中将对hive的分区表和分桶表的常用操作做一个整理。

分区

概念

分区表的本质就是对应HDFS文件系统上的独立的文件夹,该文件夹下是该分区所有的数据文件。Hive表的一个分区就是一个子目录。把一个大的数据集根据业务需要切分成一个个小的数据集,在查询时通过查询条件选择所需要的指定的分区,这样避免去扫描所有数据文件,大大提升查询的效率。

分区表的操作

创建分区表

CREATE TABLE test_partition_table(
    id string,
    name string,
    age int
)
COMMENT '分区测试表'
partitioned by (part_data_id string comment 分区)
STORED AS ORC
;

新建分区

ALTER TABLE test_partition_table ADD PARTITION(part_data_id='2025-03-13');

导入数据到指定分区

LOAD DATA LOCAL INPATH '/data/test/data.txt' INTO TABLE test_partition_table PARTITION(part_data_id='2025-03-13');

写入数据到指定分区

INSERT OVERWRITE TABLE  test_partition_table PARTITION(part_data_id='2025-03-13')
SELECT  
    ID
    ,NAME
    ,AGE
FROM test_table
WHERE
    PART_DATA_ID='2025-03-13'
;

删除分区

ALTER TABLE test_partition_table DROP PARTITION(part_data_id='2025-03-13');

删除多个分区

ALTER TABLE test_partition_table DROP PARTITION(part_data_id='2025-03-13')
,PARTITION(part_data_id='2025-03-14')
,PARTITION(part_data_id='2025-03-15')
;

查看分区

SHOW PARTITIONS test_partition_table;

查看分区表结构

DESC FORMATTED test_partition_table;

动态分区

hive支持动态分区,即在数据写入时根据数据的值动态分配写入到相应的分区中。动态分区的功能默认是关闭的,如果需要使用,则需要设置参数开启。

1. 开启动态分区参数设置

SET hive.exec.dynamic.partition=true;

2. 设置为非严格模式

动态分区的模式默认是stric严格模式,表示在必须指定至少一个分区为静态分区,nonstric模式表示允许所有的分区字段都可以使用动态分区。

SET hive.exec.dynamic.partition.mode=nonstrict;

3. 设置所有节点可创建的最大分区数

在所有执行MR的节点上 ,最大一共可以创建多少个动态分区,默认是1000个。

SET hive.exec.max.dynamic.partitions=1000;

4. 设置单个节点可创建的最大分区数

默认为100,该参数需要根据实际的分区字段的值来指定,比如以日期为分区,一年有365天,每天都有数据,如果将这份数据导入到表中就会报错,因为需要的分区数是365,所以需要根据数据的分布调整该参数的大小。

SET hive.exec.max.dynamic.partitions.pernode=1000;

5.设置整个MRJob可创建的最大文件数

该参数的默认值为:100000

SET hive.exec.max.created.files=100000;

6. 设置当有空分区产生时是否报错,默认值为false

SET hive.error.on.empty.partition=false;

分桶

分区表的本质是在HDFS文件系统中创建目录,如果某一天的数据量非常的巨大,还是有可能导致某些查询扫描的数据量过大,所以可以进一步使用分桶的方式来介绍数据的扫描范围。分桶的本质则是将数据文件切分成指定桶数的小文件,类似与关系型数据库中的分区。

创建分桶表

CREATE TABLE test_partition_table(
    id string,
    name string,
    age int
)
COMMENT '分区测试表'
partitioned by (part_data_id string comment 分区)
clustered by(name) into 7 buckets
STORED AS ORC
;

抽样

我们在使用数据时,有时候并不想查询所有的数据,只需要其中的一部分,这时候就可以使用抽样函数来实现。

抽样

tablesample(BUCKET X OUT OF Y ON {bucket_col})
按照指定的分桶列,分成Y个桶,并从第X个桶开始中抽取数据。

SELECT * FROM test_partition_table tablesample(bucket 5 out of 10 on name);
<think>嗯,用户现在想了解Hive分区的区别以及它们的使用场景。我之前已经回答过类似的问题,但需要结合用户提供的引用内容来调整回答,确保信息准确且符合用户需求。 首先,我需要回顾用户提供的引用内容。引用[1]到[5]主要讨论了分区的定义、区别以及应用场景。比如引用[1]提到分区表是按列值划数据,而表则是文件级布;引用[3][4]解释了的自动设置分区裁剪。引用[5]举例说明按日期分区来处理网站日志数据。 接下来,用户之前的问题是关于Hive索引的使用,现在转向分区的区别。虽然索引分区都是优化手段,但用户现在需要明确两者的不同。我需要将分区开解释,从数据组织方式、存储结构、使用场景等方面进行对比。 用户可能是在处理大数据时遇到了查询效率问题,想要通过优化数据存储结构来提升性能。需要明确分区的适用场景,比如按时间或类别过滤数据,而适合JOIN操作或抽样。同时,用户可能对如何选择这两种技术存在疑惑,需要给出具体的建议。 需要确保回答结构清晰,点说明,并引用提供的资料。例如,引用[4]提到需要设置hive.enforce.bucketing参数,而分区需要hive.exec.dynamic.partition,这可以作为技术实现上的区别。同时,引用[5]的日志案例可以用来说明分区的应用场景。 还要注意用户希望尽可能参考之前的回答,但这次的问题是关于分区,所以需要专注于这部内容,避免重复索引的信息。不过,在组合应用部可以提到分区与索引的结合使用,如引用[3]中的用于JOIN优化。 最后,生成的相关问题需要围绕分区的细节,比如如何选择、配置参数或实际案例,帮助用户深入理解。</think>### Hive分区的区别及使用场景析 #### 一、核心概念对比 1. **数据组织方式** - **分区(Partitioning)**: - 按**目录层级**划数据(如`/year=2023/month=08/day=01`) - 通过分区字段值过滤数据文件(**物理隔离**)[^1][^5] - **(Bucketing)**: - 按哈希值将数据均匀布到**固定数量文件**中 - 通过哈希算法实现**逻辑组**(相同键的数据落在同一文件)[^3][^4] $$ \text{计算公式:} \text{Bucket\_ID} = \text{hash(column) \% num\_buckets} $$ 2. **存储结构差异** | 特征 | 分区表 | 表 | |-------------|---------------------------|---------------------------| | 存储粒度 | 目录级(物理隔离) | 文件级(逻辑组) | | 元数据管理 | 分区信息记录在Metastore[^1] | 仅依赖哈希计算结果 | | 数据布 | 人工指定分区键值范围 | 自动均匀布(哈希算法) | #### 二、功能特性对比 1. **查询优化机制** - **分区裁剪(Partition Pruning)**: 自动跳过无关分区目录,减少I/O开销(如`WHERE year=2023`)[^3] - **优化(Bucketing Optimization)**: - 等值JOIN时避免全表Shuffle(Bucket Join)[^4] - 高效数据采样(`TABLESAMPLE`子句) 2. **配置参数对比** ```sql -- 分区表配置 SET hive.exec.dynamic.partition=true; -- 启用动态分区[^2] SET hive.exec.max.dynamic.partitions=1000; -- 表配置 SET hive.enforce.bucketing=true; -- 强制自动[^4] SET hive.optimize.bucketmapjoin=true; -- 启用JOIN优化 ``` #### 三、典型应用场景 1. **优先使用分区的场景** - **时间序列数据**(如日志按`年/月/日`层存储)[^5] - **高频过滤查询**(如`WHERE country='CN'`) - **数据生命周期管理**(按分区删除过期数据) 2. **优先使用的场景** - **大表JOIN优化**(相同键的表可进行Bucket Join) - **数据倾斜缓解**(哈希布平衡数据量) - **高效随机抽样**(直接抽取特定数据) #### 四、组合应用策略 1. **(Partition + Bucket)** ```sql CREATE TABLE user_behavior ( user_id INT, event_time TIMESTAMP ) PARTITIONED BY (dt STRING) -- 按日期分区 CLUSTERED BY (user_id) INTO 32 BUCKETS; -- 按用户ID ``` - **优势**: - 一级分区实现粗粒度过滤 - 二级优化JOIN抽样[^3][^4] 2. **动态分区+组合** ```sql INSERT OVERWRITE TABLE target_table PARTITION(dt) SELECT user_id, event_time, dt FROM source_table DISTRIBUTE BY dt, user_id; -- 动态分区协同 ``` #### 五、限制与注意事项 1. **分区表限制** - 分区数量过多会导致Metastore压力(建议不超过10万) - 静态分区需手动指定值,动态分区需谨慎控制数量[^2] 2. **表限制** - 数一旦定义不可修改(需重建表) - 数据写入时必须显式启用(`hive.enforce.bucketing=true`)[^4] --- ### 相关问题 1. 如何选择动态分区与静态分区的使用时机? 2. 表的JOIN优化在哪些场景下会失效? 3. 如何处理分区数量过多导致的元数据性能问题? 4. 表的哈希算法是否支持自定义?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值