hive小文件过多问题解决

起因

数据中台当前有一张流水类表,存在3200个分区,230w个数据文件,150亿条数据,导致该表查询起来及其麻烦,更令人糟心的是,业务人员不懂查询方式,经常有人使用select *的方式查询该表,导致hiveserver2经常炸掉,极大影响集群的使用,因此,我们决定处理掉这个问题。

我们来看下是什么原因导致这个问题

首先,文件数量和大小会影响Mapper任务的数量,所以小文件越多,mapper任务越多,每个mapper任务会启动一个JVM,所以这些任务初始化和运行会消耗大量资源。而且在NameNode中每个文件大约占150字节,小文件问题会直接带来NameNode的压力巨大,从而导致HDFS的稳定性,同时对HDFS日常的数据读写带来性能下降。

解决方法
  1. 从源头解决,在日增数据的脚本中加入参数设置,约束生成的小文件数量,参数示例如下

     set mapred.max.split.size=25000000;
     set mapred.min.split.size.per.node=10000000;
     set hive.hadoop.supports.splittable.combineinputformat=true;
     set mapred.min.split.size.per.rack=10000000;
     set hive.exec.compress.output=true;
     set hive.merge.mapfiles=true;
     set hive.merge.mapredfiles=true;
     set hive.merge.size.per.task=256000000;
     set hive.merge.smallfiles.avgsize=16000000;
     set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;
    

附赠一份从其他地方copy过来的参数说明

参数 说明
----- 设置Map输入合并小文件的相关参数
set mapred.max.split.size=256000000 每个Map最大输入大小(这个值决定了合并后文件的数量)
set mapred.min.split.size.per.node=100000000 一个节点上split的至少的大小(这个值决定了多个DataNode上的文件是否需要合并)
set mapred.min.split.size.per.rack=100000000 一个交换机下split至少的大小(这个值决定了多个交换机上的文件是否需要合并)
set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat; 执行Map前进行小文件合并
----- 设置Map输出和Reduce输出进行合并的相关参数
set hive.merge.mapfiles = true 设置map端输出进行合并,默认为true
set hive.merge.mapredfiles = true 设置reduce端输出进行合并,默认为false
set hive.merge.size.per.task = 25610001000 设置合并文件的大小
set hive.merge.smallfiles.avgsize=16000000 当输出文件的平均大小小于该值时,启动一个独立的MapReduce任务进行文件的Merge
----- 设置
set parquet.compression=GZIP parquet格式的压缩格式
set hive.exec.reducers.bytes.per.reducer=115000000 设置运行时Reduce的数量
set hive.exec.reducers.max=120000000; 设置运行时Reduce的最大数量
  1. 合并hdfs中已有的小文件,这也是本文的重点

    合并小文件有两种思路。一是使用hive的原生工具concatenate来合并小文件,sql示例如下

alter tabl

### Hive 小文件问题解决方案 Hive 小文件问题主要源于数据生成过程中的不当操作,例如数据分片过多或动态分区插入数据时未进行合理控制。这些问题会导致 HDFS 上产生大量小于块大小的文件,从而增加 NameNode 的元数据负担并降低查询性能。为了解决这一问题,可以采取以下几种策略: 1. **合并小文件** 可以通过设置 Hive 参数来自动合并小文件,例如启用 `hive.merge.mapfiles` 和 `hive.merge.mapredfiles` 选项。这些参数分别控制 Map 阶段和 Reduce 阶段的输出是否合并。此外,还可以通过 `hive.merge.size.per.task` 和 `hive.merge.smallfiles.avgsize` 来指定合并后的文件大小以及触发合并任务的平均文件大小阈值 [^4]。 2. **使用归档文件格式** Hadoop 提供了 HAR(Hadoop Archive)格式来打包多个小文件,以减少对 NameNode 内存的占用。Hive 原生支持这种归档方式,可以通过启用 `hive.archive.enabled` 并设置 `hive.archive.har.parentdir.settable` 来允许归档操作。归档和解归档特定分区的操作可使用 `ALTER TABLE ... ARCHIVE PARTITION` 和 `ALTER TABLE ... UNARCHIVE PARTITION` 命令完成 [^3]。 3. **优化数据写入过程** 在数据写入阶段,可以通过减少 Reducer 的数量来避免生成过多小文件。此外,尽量减少动态分区的使用,或者在使用动态分区时通过 `DISTRIBUTE BY` 指定分区字段,以确保数据均匀分布并减少不必要的分区 [^5]。 4. **选择合适的存储格式** 使用 `SequenceFile` 或其他二进制存储格式代替 `TextFile` 可以有效减少元数据开销,并提高 I/O 效率。`SequenceFile` 是一种支持压缩和高效序列化的存储格式,适用于需要频繁读取和写入的场景 [^5]。 5. **调整文件块大小** 在某些情况下,可以根据实际数据量和集群配置调整 HDFS 的块大小。较大的块大小有助于减少小文件带来的影响,但需要权衡其对存储利用率的影响 [^2]。 6. **批量加载数据** 在数据导入阶段,可以通过批量加载的方式将多个小文件合并为较大的文件后再加载到 Hive 表中。例如,使用 `LOAD DATA INPATH` 命令将数据加载到临时表,再通过 `INSERT OVERWRITE` 将数据写入目标表,过程中可以利用 Hive 的合并功能 [^4]。 7. **定期清理和维护** 定期检查表中的小文件情况,并通过手动合并或归档的方式进行维护。可以编写脚本定期执行 `ALTER TABLE ... CONCATENATE` 或者归档操作,以保持数据的整洁性和查询性能 [^3]。 ### 示例代码 以下是一个简单的示例,展示如何在 Hive 中启用合并小文件的功能: ```sql -- 启用 Map 阶段输出的合并 SET hive.merge.mapfiles = true; -- 启用 Reduce 阶段输出的合并 SET hive.merge.mapredfiles = true; -- 设置每个合并任务的目标文件大小(例如 256MB) SET hive.merge.size.per.task = 268435456; -- 设置触发合并任务的平均文件大小阈值(例如 16MB) SET hive.merge.smallfiles.avgsize = 16777216; ``` 执行完上述设置后,Hive 会在适当的时机自动启动合并任务,将小文件合并为较大的文件。 ###
评论 4
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值