今天在用Streaming-Python处理一个MapReduce程序时,发现reducer失败,原因为耗费内存达到极限了!仔细查看代码时,发现有一个集合里保存着URL,而URL长度是比较长的,直接保存确实是耗费内存,于是想到用压缩存储,然后用的时候再解压,虽然处理时间增加,但是耗费内存大大降低!
具体就是使用zlib模块
import zlib
raw_data = "hello,world,ooooooooooooxxxxxxxxxxx"
zb_data = zlib.compress(raw_data)
print "len(raw_data)=%d, len(zb_data)=%d, compression ratio=%.2f" % (len(raw_data), len(zb_data), float(len(zb_data))/len(raw_data))
# len(raw_data)=35, len(zb_data)=25, compression ratio=0.71
raw_data2 = zlib.decompress(zb_data)
print raw_data2
参考:http://my.oschina.net/1123581321/blog/176570
博主在使用Streaming - Python处理MapReduce程序时,因reducer耗费内存达极限而失败。经查看,发现集合中保存长URL耗费大量内存,于是采用压缩存储、使用时解压的方式,虽增加处理时间,但大幅降低内存消耗,具体使用了zlib模块。

被折叠的 条评论
为什么被折叠?



