hadoop中需要注意的问题

本文详细介绍了MapReduce的工作原理,包括map阶段如何以行为单位进行处理,以及reduce阶段中对象的重用机制。对于实现Writable接口的类,在使用过程中需要注意变量重用导致的数据覆盖问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.map阶段

map方法反复执行多次,以行为单位,key为偏移量,value为该行内容

2.reduce阶段 对象的重用

    reduce方法反复执行多次,但key/value对象只有两个,由于变量会重用,也就是说,值会被覆盖,如果要保存两个对象的数据,只能将其中的值取出来另存或者重新clone一个对象.

    对于所有实现Writable接口的类都要小心。但是对于String,int等基本类型似乎没问题。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值