Hadoop的优化

每日积累
Hadoop的优化
HDFS的小文件的影响
(1)影响NameNode的寿命,因为文件的元数据存储在NameNode的内存中
(2)影响计算引擎的任务数量,每一个小文件都会生成一个Map任务
1)从数据的输入方面优化
(1)合并小文件:对小文件进行归档(Har)、自定义InputFormat 将文件存储为SequenceFile文件
(2)采用CombineFileInput作为输入,解决输入端大量小文件的场景
(3)大量的小文件,可以开启JVM重用
Map阶段
(1)增加环形缓冲区的大小 由100M扩大到200M
(2)增大环形缓冲区溢写的比例 80%-90%
(3)减少对溢写文件的merge次数
(4)使用Combiner进行提前合并(不影响业务逻辑的情况下)
reduce阶段
(1)设置合理的Map和reduce的数量
(2)设置Map和reduce的共存,调整slowstart.completedmaps map运行到一定程度后,reduce也开始运行
(3)规避使用reduce,reduce在连接数据集时会产生大量的网络消耗
(4)增加每个reduce去Map中拿数据的并行数

IO传输
(1)采用压缩的方式 使用snappy和LZOP
(2)使用SeuenceFile二进制文件

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值