hadoop 调优

本文分享了作者在处理大规模数据集时使用MapReduce遇到的问题及解决方案,特别介绍了几个重要的可调节参数,如reduce数量、JVM内存配置、shuffle过程中的内存使用比例等。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  前一段时间在写mapreduce来处理数据,背景就是把30亿的数据,进行排序、合并,最终转换成json,拼接json是自己写的,没有用fastjson、jackson等工具,原因是封装好的东西时间消耗严重,不能满足项目需求。

  遇到了很多问题,最后都被解决掉了,在这里说一些跑mapreduce的时候,可以调节的一些参数(起码是我用过的,有用的):

mapred.reduce.tasksmapreduce.job.reduces):

 默认值:1

说明:默认启动的reduce数。通过该参数可以手动修改reduce的个数。

mapred.child.java.opts

默认值:-Xmx200m

说明:jvm启动的子线程可以使用的最大内存。建议值-XX:-UseGCOverheadLimit -Xms512m -Xmx2048m -verbose:gc -Xloggc:/tmp/@taskid@.gc


mapreduce.reduce.shuffle.merge.percent

默认值: 0.66说明:reduce归并接收map的输出数据可占用的内存配置百分比。类似mapreduce.reduce.shuffle.input.buffer.percen属性。

mapreduce.map.memory.mb    map任务的最大内存

mapreduce.map.java.opts -Xmx1024M map任务jvm的参数

mapreduce.reduce.memory.mb  reduce任务的最大内存

mapreduce.reduce.java.opts -Xmx2560M reduce任务jvm的参数



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值