hbase开启lzo压缩

hbase只支持对gzip的压缩,对lzo压缩支持不好。在io成为系统瓶颈的情况下,一般开启lzo压缩会提高系统的吞吐量。但这需要参考具体的应用场景,即是否值得进行压缩、压缩率是否足够等等。

想要hbase支持lzo压缩,参照以下步骤:
1 首先要让系统支持lzo动态库,安装lzo-2.00以上版本:[url]http://www.oberhumer.com/opensource/lzo/download/[/url]
2 默认安装完后应该在系统的/usr/local/lib/找到liblzo*等几个so
3 到[url]http://code.google.com/p/hadoop-gpl-compression/[/url]下载lzo相关的native库
4 拷贝3中下载的 hadoop-gpl-compression-0.1.0-dev.jar 或 hadoop-gpl-compression-0.1.0.jar 到 hbase/lib以及hadoop/lib 中
5 拷贝3中下载的 lib/native/* 到 hadoop/lib/native 及 hbase/lib/native
6 确保以上4/5中的文件同步到了每台regionserver上
7 在core-site.xml中加上:
<property>
<name>io.compression.codecs</name>
<value>com.hadoop.compression.lzo.LzoCodec,com.hadoop.compression.lzo.LzopCodec</value>
</property>
<property>
<name>io.compression.codec.lzo.class</name>
<value>com.hadoop.compression.lzo.LzoCodec</value>
</property>

8 重启dfs及hbase,建表时使用:
create 'mytable', {NAME=>'colfam:', COMPRESSION=>'lzo'}

此时这个column即为lzo了,往它读写数据会自动进行lzo压缩和解压缩。

P.S:
1 如果不清楚你的hbase是否配置好了支持lzo,可以执行以下命令检查之,如果不支持的话这个命令会提示你还缺什么文件:
hbase org.apache.hadoop.hbase.util.CompressionTest hdfs://namenode:9000/test_path lzo

2 如果你和我一样使用了CDH3版本的hdfs,那么该版本的hdfs与hadoop-gpl-compression会有冲突,原因是CDH3修改了compression.java,增加了reinit()接口。
此时需要重新编译hadoop-gpl-compression工程,修改 src/java/com/hadoop/compression/lzo/LzoCompressor.java,增加以下行:
  public void reinit(Configuration conf) {
// do nothing
}

然后重新编译工程,将生成的jar包替换以上第4步中的那个jar包
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值