hive动态分区的方式插入数据

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.youkuaiyun.com/qq_26442553/article/details/80382174

    往hive分区表中插入数据时,如果需要创建的分区很多,比如以表中某个字段进行分区存储,则需要复制粘贴修改很多sql去执行,效率低。因为hive是批处理系统,所以hive提供了一个动态分区功能,其可以基于查询参数的位置去推断分区的名称,从而建立分区。

   1.创建一个单一字段分区表


   
   
  1. hive>
  2. create table dpartition(id int ,name string )
  3. partitioned by(ct string );
   2.往表里装载数据,并且动态建立分区,以city建立动态分区

   
   
  1. hive>
  2. hive.exec.dynamici.partition=true; #开启动态分区,默认是false
  3. set hive.exec.dynamic.partition.mode=nonstrict; #开启允许所有分区都是动态的,否则必须要有静态分区才能使用。
  4. insert overwrite table dpartition
  5. partition(ct)
  6. select id ,name,city from mytest_tmp2_p;
  7. 要点:因为dpartition表中只有两个字段,所以当我们查询了三个字段时(多了city字段),所以系统默认以最后一个字段city为分区名,因为分区表的
  8. 分区字段默认也是该表中的字段,且依次排在表中字段的最后面。所以分区需要分区的字段只能放在后面,不能把顺序弄错。如果我们查询了四个字段的话,则会报
  9. 错,因为该表加上分区字段也才三个。要注意系统是根据查询字段的位置推断分区名的,而不是字段名称。
  10. hive>--查看可知,hive已经完成了以city字段为分区字段,实现了动态分区。
  11. hive (fdm_sor)> show partitions dpartition;
  12. partition
  13. ct=beijing
  14. ct=beijing1

注意:使用,insert...select 往表中导入数据时,查询的字段个数必须和目标的字段个数相同,不能多,也不能少,否则会报错。但是如果字段的类型不一致的话,则会使用null值填充,不会报错。而使用load data形式往hive表中装载数据时,则不会检查。如果字段多了则会丢弃,少了则会null值填充。同样如果字段类型不一致,也是使用null值填充。

3.多个分区字段时,实现半自动分区(部分字段静态分区,注意静态分区字段要在动态前面)


   
   
  1. 1.创建一个只有一个字段,两个分区字段的分区表
  2. hive (fdm_sor)> create table ds_parttion(id int )
  3. > partitioned by (state string ,ct string );
  4. 2.往该分区表半动态分区插入数据
  5. hive>
  6. set hive.exec.dynamici.partition=true;
  7.  set hive.exec.dynamic.partition.mode=nonstrict;
  8.  insert overwrite table ds_parttion
  9.  partition(state='china',ct) #state分区为静态,ct为动态分区,以查询的city字段为分区名
  10.  select id ,city from  mytest_tmp2_p; 
  11. 3.查询结果显示:
  12. hive (fdm_sor)> select *  from ds_parttion where state='china'
  13.               > ;
  14. ds_parttion.id  ds_parttion.state       ds_parttion.ct
  15. 4       china   beijing
  16. 3       china   beijing
  17. 2       china   beijing
  18. 1       china   beijing
  19. 4       china   beijing1
  20. 3       china   beijing1
  21. 2       china   beijing1
  22. 1       china   beijing1
  23. hive (fdm_sor)> select *  from ds_parttion where state='china' and ct='beijing';
  24. ds_parttion.id  ds_parttion.state       ds_parttion.ct
  25. 4       china   beijing
  26. 3       china   beijing
  27. 2       china   beijing
  28. 1       china   beijing
  29. hive (fdm_sor)> select *  from ds_parttion where state='china' and ct='beijing1';
  30. ds_parttion.id  ds_parttion.state       ds_parttion.ct
  31. 4       china   beijing1
  32. 3       china   beijing1
  33. 2       china   beijing1
  34. 1       china   beijing1
  35. Time taken: 0.072 seconds, Fetched: 4 row(s)
4.多个分区字段时,全部实现动态分区插入数据

   
   
  1. set hive.exec.dynamici.partition=true;
  2. set hive.exec.dynamic.partition.mode=nonstrict;
  3. insert overwrite table ds_parttion
  4. partition(state,ct)
  5. select id ,country,city from mytest_tmp2_p;
  6. 注意:字段的个数和顺序不能弄错。

5.动态分区表的属性

  使用动态分区表必须配置的参数 :

    set hive.exec.dynamic.partition =true(默认false),表示开启动态分区功能
    set hive.exec.dynamic.partition.mode = nonstrict(默认strict),表示允许所有分区都是动态的,否则必须有静态分区字段

 动态分区相关的调优参数:

    set  hive.exec.max.dynamic.partitions.pernode=100 (默认100,一般可以设置大一点,比如1000)

       表示每个maper或reducer可以允许创建的最大动态分区个数,默认是100,超出则会报错。

   set hive.exec.max.dynamic.partitions =1000(默认值) 

       表示一个动态分区语句可以创建的最大动态分区个数,超出报错

   set hive.exec.max.created.files =10000(默认) 全局可以创建的最大文件个数,超出报错。


Hive中进行大规模数据处理时,动态分区插入一个非常高效的工具。对于六年这样的长时间跨度的数据量来说尤其有用。 ### 动态分区插入概述 **动态分区插入(Dynamic Partition Insertion)**允许您在一个查询操作期间将结果行插入到多个分区目录下,而无需对每个目标分区单独编写`INSERT INTO ... PARTITION (...)`语句。它简化了复杂ETL流程,并显著提高了性能。 #### 实现步骤: 1. **启用设置** - `hive.exec.dynamic.partition=true`: 启用动态分区功能; - `hive.exec.dynamic.partition.mode=nonstrict`: 允许非严格的模式,在这种模式下可以不指定静态值直接使用字段名作为分区键。 2. **准备源和目的结构** 假设我们有一个名为`six_years_data`的原始事实包含日期列和其他信息;然后创建一个按年份、月份划分的目标分区管理`tgt_partitioned_table`. ```sql CREATE TABLE tgt_partitioned_table ( id INT, name STRING, value DOUBLE) PARTITIONED BY (year INT, month INT); ``` 3. **执行动态加载命令** 下面的例子展示了如何从`six_years_data`向已建立好的带时间戳分区的日志归档中导入所有记录。注意这里假定存在两列明每条日志对应的年月信息(`log_year`, `log_month`)。 ```sql SET hive.exec.dynamic.partition = true; SET hive.exec.dynamic.partition.mode = nonstrict; INSERT OVERWRITE TABLE tgt_partitioned_table PARTITION(year,month) SELECT id, name, value, log_year AS year, log_month AS month FROM six_years_data; ``` 此SQL语句会自动遍历所有的组合并填充相应的位置。 4. **验证数据完整性** 完成上述过程之后,请务必检查新添加的内容是否完整无误地到达预期位置。这一步骤至关重要以保证后续分析工作的准确性和可靠性。 5. **优化建议** 考虑到六年的大量历史数据可能导致单次作业耗时较长的问题,您可以考虑采取以下措施提高效率: - 分批分片传输小批量增量更新而非一次性全量同步全部内容; - 对于频繁访问的部分预设缓存机制减少IO开销; - 根据实际需求调整压缩编码算法降低存储成本等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值