Hadoop企业优化(二)之HDFS小文件优化方法(****)

本文探讨了HDFS中存储大量小文件所带来的问题,包括namenode内存占用过多和索引速度减慢等,并提出了多种解决方案,如Hadoop Archive、Sequencefile、CombineFileInputFormat以及JVM重用等。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 HDFS小文件弊端

HDFS上每个文件都要在namenode上建立一个索引,这个索引的大小约为150byte,这样当小文件比较多的时候,就会产生很多的索引文件,一方面会大量占用namenode的内存空间,另一方面就是索引文件过大是的索引速度变慢。

2 解决方案

1)Hadoop Archive:

 是一个高效地将小文件放入HDFS块中的文件存档工具,它能够将多个小文件打包成一个HAR文件,这样就减少了namenode的内存使用。

2)Sequence file:

 sequence file由一系列的二进制key/value组成,如果key为文件名,value为文件内容,则可以将大批小文件合并成一个大文件。

3)CombineFileInputFormat:

  CombineFileInputFormat是一种新的inputformat,用于将多个文件合并成一个单独的split,另外,它会考虑数据的存储位置。

4)开启JVM重用

对于大量小文件Job,可以开启JVM重用会减少45%运行时间。(省去了JVM开关的过程,极大的提高了性能)

JVM重用理解:一个map运行一个jvm,重用的话,在一个map在jvm上运行完毕后,jvm继续运行其他map。

具体设置:mapreduce.job.jvm.numtasks值在10-20之间。(具体数目要根据实际运行的项目进行调试)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值