Hadoop中Writable和WritableComparable区别

本文详细介绍了Hadoop MapReduce框架中Key和Value的数据类型要求。为了支持序列化操作,Key必须实现WritableComparable接口,而Value只需实现Writable接口。此外,文章还解释了为什么能作为Key的数据类型同样可以作为Value使用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hadoop的key和value的传递序列化需要涉及两个重要的接口Writable和WritableComparable。

1> Writable:

public void write(DataOutput out){}          

public void readFields(DataInput in){}

也就是读数据和写数据的方式

2> WritableComparable:

public void write(DataOutput out){}

public void readFields(DataInput in){}

public int compareTo(InfoBean o){}

 也就是比Writable多了一个compareTo方法,这个的用途是是为了确定是不是相同的key,因此得出如下结论:

hadoop为Key的数据类型必须实现WritableComparable,而Value的数据类型只需要实现Writable即可,能做Key的一定可以做Value,能做Value的未必能做Key.


MR的任意KeyValue必须实现Writable接口.

MR的任意key必须实现WritableComparable接口.

单写一个value的封装可以只继承writable.(建议全部继承WritableComparable)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值